JP7138802B2 - Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site - Google Patents
Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site Download PDFInfo
- Publication number
- JP7138802B2 JP7138802B2 JP2021542469A JP2021542469A JP7138802B2 JP 7138802 B2 JP7138802 B2 JP 7138802B2 JP 2021542469 A JP2021542469 A JP 2021542469A JP 2021542469 A JP2021542469 A JP 2021542469A JP 7138802 B2 JP7138802 B2 JP 7138802B2
- Authority
- JP
- Japan
- Prior art keywords
- patch
- image
- real
- patient
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3925—Markers, e.g. radio-opaque or breast lesions markers ultrasonic
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3991—Markers, e.g. radio-opaque or breast lesions markers having specific anchoring means to fixate the marker to the tissue, e.g. hooks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Description
本発明は、画像のアライメントに関し、より詳細には、手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメントに関する The present invention relates to image alignment, and more particularly to alignment of preoperative scan images to real-time surgical images for a mediated reality view of the surgical site.
手術を行うとき、多くの場合、外科医は、CT(computed tomography:コンピューター断層撮影)スキャン画像のような患者のアナトミーの術前3次元画像を当てにする。しかしながら、上記の術前画像の有用性は、画像を手術行為に容易に統合することができないので制限される。たとえば、画像が術前のセッションにおいてキャプチャされるので、術前画像にキャプチャされる相対的な解剖学的な位置は、手術行為の間、実際の位置と一致しないことがある。その上さらに、手術の間に術前画像を利用するのに、外科医は、注意を手術野と術前画像の表示とに割りふらなければならない。その上さらに、術前画像の異なる層の間を注意しながら進むことは、手術における外科医の焦点から奪い取る重要な注意を必要とすることがある。 When performing surgery, surgeons often rely on preoperative three-dimensional images of the patient's anatomy, such as CT (computed tomography) scan images. However, the usefulness of such preoperative images is limited because the images cannot be easily integrated into the surgical procedure. For example, because the images are captured in a preoperative session, the relative anatomical positions captured in the preoperative images may not match the actual positions during the surgical procedure. Furthermore, utilizing preoperative images during surgery requires the surgeon to divide his attention between the surgical field and the display of the preoperative images. Furthermore, carefully navigating between different layers of preoperative images may require significant attention that takes away from the surgeon's focus in surgery.
図面および次の説明は、例示のみとして、好ましい態様に関する。後に続く議論から、本明細書に開示される構造および方法の代替えの態様が、主張されるものの原理から逸脱することなく使われ得る実行可能な代替のものとして直ちに認められるだろうということは、特筆されるべきである。 The drawings and the following description relate, by way of illustration only, to preferred embodiments. From the discussion that follows, it will be readily appreciated that alternative embodiments of the structures and methods disclosed herein will be readily recognized as viable alternatives that may be used without departing from the principles of what is being claimed. It should be noted.
今、詳細にいくつかの態様に言及され、例が添付の図面に例示される。実行可能な場合はいつでも、類似のまたは同一の参照符号化が、図面において使用されることがあり、類似のまたは同一の機能性を示し得ることが特筆される。図面は、例示のみの目的のために、開示されるシステム(または方法)の態様を描いている。当業者は、次の説明から、本明細書に例示される構造および方法の代替の態様が、本明細書に説明される原則から逸脱することなく、使われることがあることを直ちに認めるだろう。 Reference will now be made in detail to certain aspects, examples of which are illustrated in the accompanying drawings. It is noted that, wherever practicable, similar or identical reference markings may be used in the drawings to indicate similar or identical functionality. The drawings depict aspects of the disclosed system (or method) for purposes of illustration only. Those skilled in the art will readily recognize from the ensuing description that alternative embodiments of the structures and methods illustrated herein may be used without departing from the principles set forth herein. .
外科用の適用に対するメディエイテッドリアリティシステム(mediated-reality system)は、術前画像と手術部位のリアルタイムにてキャプチャされる画像とを、外科の処置の間、外科医によって身につけられるヘッドマウントディスプレイに映されるビジュアライゼーションへ組み入れる。メディエイテッドリアリティシステムは、外科医の頭の位置をトラッキングし、外科医の頭の位置に対応するバーチャルカメラの視点から手術部位のリアルタイム画像を生成して、外科医に自然に見える地点を模倣する。その上さらに、メディエイテッドリアリティシステムは、バーチャルカメラの視点からのリアルタイム画像により術前画像をアライメントし、バーチャルカメラの視点を表すリアルタイム画像にオーバーレイされたアライメントされた術前3次元画像またはそれの選択された部分を有する手術部位のメディエイテッドリアリティビジュアライゼーション(mediated-reality visualization)を与える。ゆえに、メディエイテッドリアリティシステムは、解剖学的特徴がリアルタイム画像において外科医の視界から遮られ得るときでさえ、外科医に、切開をする前におよび処置の間じゅう、患者の基礎をなす3次元アナトミーを視覚化できるようにする。その上さらに、技術は、外科医の視界を手術部位から逸らさないやり方にてビジュアライゼーションを有益に提供し、ゆえに、高い能率および精度の手術を行う外科医の能力を高める。 A mediated-reality system for surgical applications projects pre-operative images and real-time captured images of the surgical site onto a head-mounted display worn by the surgeon during the surgical procedure. Incorporate into the visualization that will be used. The mediated reality system tracks the position of the surgeon's head and generates a real-time image of the surgical site from a virtual camera's perspective corresponding to the surgeon's head position, mimicking a point that would appear natural to the surgeon. Furthermore, the mediated reality system aligns the pre-operative image with a real-time image from the virtual camera's point of view, and a selection of aligned pre-operative three-dimensional images overlaid on the real-time image representing the virtual camera's point of view. Provides mediated-reality visualization of the surgical site with the mediated portion. Thus, the mediated reality system provides the surgeon with an underlying three-dimensional anatomy of the patient prior to making an incision and throughout the procedure, even when anatomical features may be obscured from the surgeon's view in real-time images. make it visible. Furthermore, the technology beneficially provides visualization in a manner that does not distract the surgeon from the surgical site, thus enhancing the surgeon's ability to perform surgery with high efficiency and precision.
態様にて、基準マーカー(fiducial marker)を含むパッチは、患者の身体に配置され、術前のイメージングの間、および患者が手術のために置かれた後に、所々に留まる。基準マーカーは、術前画像と、患者が手術のために置かれた後にキャプチャされるリアルタイム画像との両方において、メディエイテッドリアリティシステムによって認識されることが可能であるパターンを含む。メディエイテッドリアリティシステムは、両方の画像セットに見られる基準マーカーの検出された位置に基づいて、リアルタイム画像により術前画像をアライメントする。例えば、メディエイテッドリアリティシステムは、1つまたは複数の変換を術前画像に適用し、術前画像において検出される基準マーカーに、リアルタイム画像において検出される対応する基準マーカーによりアライメントさせ得る。 In embodiments, patches containing fiducial markers are placed on the patient's body and remain in place during preoperative imaging and after the patient is positioned for surgery. The fiducial markers include patterns that can be recognized by the mediated reality system in both pre-operative images and real-time images captured after the patient is positioned for surgery. The mediated reality system aligns the pre-operative image with the real-time image based on the detected positions of fiducial markers found in both image sets. For example, the mediated reality system may apply one or more transformations to the preoperative image to align fiducial markers detected in the preoperative image with corresponding fiducial markers detected in the real-time image.
別の態様にて、超音波画像または透視画像のような3次元画像は、患者が手術のために置かれた後にキャプチャされることがあり、術前画像スキャンと手術のための患者のポジショニングとの間に起こる解剖学的特徴の3次元位置の変化を予測するのに利用され得る。次に、術前画像は、術前画像スキャンにおける解剖学的特徴のポジショニングを、患者が手術のために置かれた後にキャプチャされる3次元画像に見られる解剖学的特徴の検出される位置にアライメントするために曲げられて、起こることがある変化を補い得る。 In another aspect, a three-dimensional image, such as an ultrasound image or a fluoroscopic image, may be captured after the patient is positioned for surgery, preoperative image scanning and patient positioning for surgery. It can be used to predict changes in the three-dimensional position of anatomical features that occur during The preoperative image then maps the positioning of the anatomical features in the preoperative image scan to the detected locations of the anatomical features seen in the three-dimensional images captured after the patient is positioned for surgery. It can be bent to align to compensate for changes that may occur.
その上さらに別の態様にて、基準マーカーとポジショニング後(post-positioning)の画像との組み合わせは、術前画像を、メディエイテッドリアリティビジュアライゼーションにおけるリアルタイム画像にアライメントするのに使用され得る。例えば、術前画像とポジショニング後の画像とが、比較されて、基準マーカーの位置が画像間の3次元空間においてどのように変化するのかを決定し、変換が、導出され、術前画像を変換して、ポジショニング後の画像におけるそれぞれのロケーションにより基準マーカーをアライメントし得る。 In yet another aspect, a combination of fiducial markers and post-positioning images can be used to align pre-operative images to real-time images in mediated reality visualization. For example, the pre-operative image and the post-positioning image are compared to determine how the positions of the fiducial markers change in the three-dimensional space between the images, and a transform is derived to transform the pre-operative image. to align the fiducial markers with their respective locations in the image after positioning.
特定の例示的な態様にて、方法は、手術部位のメディエイテッドリアリティビュー(mediated reality view)を生成する。術前画像が、受信され、第1の位置における患者の3次元アナトミーを表す。術前画像に基づいて、座標が、患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間において特定される。カメラアレイからのリアルタイム画像は、患者が第2の位置に手術のために置かれた後に、受信される。リアルタイム画像に基づいて、3次元リアルタイム画像空間における座標が、特定され、患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する。変換が、術前画像に適用されて、術前画像における基準マーカーのロケーションを、リアルタイム画像における基準マーカーのロケーションに実質的にアライメントする。変換された術前画像は、リアルタイム画像上にオーバーレイされて、メディエイテッドリアリティビュー(mediated reality view)を生成し、メディエイテッドリアリティビューは、表示のためにディスプレイデバイスに提供される。 In certain exemplary aspects, the method generates a mediated reality view of the surgical site. A preoperative image is received representing a three-dimensional anatomy of the patient at a first position. Based on the preoperative image, coordinates are identified in three-dimensional preoperative image space corresponding to the location of fiducial markers provided on the patch applied to the patient. Real-time images from the camera array are received after the patient is positioned for surgery at the second location. Based on the real-time images, coordinates in the three-dimensional real-time image space are identified and correspond to the locations of fiducial markers provided on the patch applied to the patient. A transform is applied to the preoperative image to substantially align the locations of the fiducial markers in the preoperative image with the locations of the fiducial markers in the real-time image. The transformed pre-operative image is overlaid on the real-time image to generate a mediated reality view, which is provided to the display device for display.
別の特定の態様にて、方法は、パッチ上の基準マーカーを必ずしも当てにすることなく、手術部位のメディエイテッドリアリティビューを生成する。本態様にて、術前画像が、受信され、第1の位置における患者の3次元アナトミーを表す。患者が第2の位置に手術のために置かれた後にキャプチャされたポジショニング後の画像が受信される。術前画像とポジショニング後の画像とに基づいて、術前画像とポジショニング後の画像とに見られる対応する特徴のセットが特定される。第1の変換が術前画像に適用されて、術前画像において対応する特徴のロケーションを、ポジショニング後の画像のそれぞれのロケーションに実質的にアライメントして、最初の変換された術前画像を生成する。カメラアレイは、患者のリアルタイム画像をキャプチャし、最初の変換された術前画像をリアルタイム画像にオーバーレイして、表示のためにディスプレイデバイスに提供される最初のメディエイテッドリアリティビューを生成する。上に説明された態様に関するさらなる詳細および追加の態様の説明が、以下に提供される。 In another particular aspect, the method generates a mediated reality view of the surgical site without necessarily relying on fiducial markers on the patch. In this aspect, a pre-operative image is received representing a three-dimensional anatomy of the patient in a first position. A post-positioning image captured after the patient is surgically placed in the second position is received. Based on the pre-operative and post-positioning images, a set of corresponding features found in the pre-operative and post-positioning images is identified. A first transformation is applied to the preoperative image to substantially align the locations of corresponding features in the preoperative image with their respective locations in the post-positioning image to produce an initial transformed preoperative image. do. A camera array captures real-time images of the patient and overlays the initial transformed preoperative images onto the real-time images to produce an initial mediated reality view provided to the display device for display. Further details regarding the above-described aspects and descriptions of additional aspects are provided below.
図1は、画像処理デバイス110、カメラアレイ120、ディスプレイデバイス140、および入力コントローラー150を含むメディエイテッドリアリティシステム100の例示的な態様を例示する。代替えの態様にて、メディエイテッドリアリティシステム100は、追加のまたは異なる構成要素を含み得る。
FIG. 1 illustrates exemplary aspects of a mediated
カメラアレイ120は、各々がシーン130のそれぞれのリアルタイム画像190をキャプチャする複数のカメラ122(例えば、カメラ122-1、カメラ122-2、・・・、カメラ122-N)を含む。カメラ122は、それらの物理的なロケーションおよび向きが互いに関して固定されるように、特定の構成において物理的に配列され得る。例えば、カメラ122は、カメラ122を予め定義された固定されたロケーションおよび向きに搭載される取り付け構造によって構造的にしっかり固定され得る。カメラアレイ120のカメラ122は、隣接するカメラがシーン130の重なり合うビューを共有し得るように置かれ得る。その上さらに、カメラアレイ120におけるカメラ122は、シーン130の画像190を実質的に同時に(例えば、しきい値時間誤差内に)キャプチャするように同期され得る。その上さらに、カメラアレイ120は、構造化された光パターンをシーン130上に投影する1つまたは複数のプロジェクター124を含み得る。態様にて、カメラ122は、シーン130のライトフィールド情報をキャプチャするライトフィールドカメラを含み得る。ここで、カメラ122は、光の強度と、シーンを表す光線の方向との両方をキャプチャする。ゆえに、ライトフィールド画像190は、深度情報をエンコードし、シーンの再生成を3次元画像として可能にする。
画像処理デバイス110は、カメラアレイ120によってキャプチャされた画像190を受信し、画像を処理して、バーチャルカメラの視点に対応する出力画像を合成する。ここで、出力画像は、バーチャルカメラの視点に対応する任意の位置および向きに配置されたカメラによってキャプチャされるだろうシーン130の画像の近似に対応する。画像処理デバイス110は、カメラアレイ120におけるカメラ122のサブセット(例えば、1つまたは複数)からの出力画像を合成するが、必ずしもすべてのカメラ122からの画像190を利用しない。例えば、与えられたバーチャルカメラの視点に対して、画像処理デバイス110は、バーチャルカメラの視点に最も密接に調和するように置かれたおよび向き付けられた2つのカメラ122から画像の立体映像のペア190を選択し得る。その上さらに、画像処理デバイス110は、プロジェクターによってシーン130上に投影された構造化された光を検出して、シーンの深度情報を推定し得る。深度情報が、カメラ122からの画像190と組み合わされて、バーチャルカメラの視点から見られるシーン130として、3次元レンダリングとして出力画像を合成し得る。代替えとして、構造化された光のプロジェクター124は省略されることがあり、画像処理デバイス110は、1つまたは複数のカメラ122によってキャプチャされた画像190から単独において3次元レンダリングを導出することがある。
The
バーチャルカメラの視点は、バーチャルカメラの視点の位置および向きに対応する制御入力を提供する入力コントローラー150によって制御され得る。バーチャルカメラの視点に対応する出力画像は、ディスプレイデバイス140に出力され、ディスプレイデバイス140によって表示される。出力画像は、バーチャルカメラの視点を表すビデオを合成するために、高フレームレートで更新され得る。その上さらに、画像処理デバイス110は、入力コントローラー150から受信した入力を有益に処理し、カメラアレイ120からキャプチャされた画像190を処理して、ディスプレイデバイス140の見る人によって知覚される実質的にリアルタイム(例えば、少なくともカメラアレイ120のフレームレートと同じ速さ)にて仮想視点に対応する出力画像を生成し得る。
The viewpoint of the virtual camera may be controlled by an input controller 150 that provides control inputs corresponding to the position and orientation of the virtual camera viewpoint. An output image corresponding to the viewpoint of the virtual camera is output to display
その上さらに、画像処理デバイス110は、例えば、CTスキャン画像、超音波画像、または透視画像のような3次元の容積を表す術前画像170を受信し得る。以下にさらに詳細に説明されるように、画像処理デバイス110は、カメラアレイ120によってキャプチャされたリアルタイム画像190の視覚的特徴に対応する術前画像170における視覚的特徴を検出し得る。次に、画像処理デバイス110は、1つまたは複数の変換を術前画像170に適用して、術前画像170(またはその一部)において検出された特徴を、リアルタイム画像190において検出された対応する特徴にアライメントし得る。画像処理デバイス110は、フレームごとベースに1つまたは複数の変換を適用されることがあり、術前画像170が、仮想視点が変化するように、各フレームにおけるリアルタイム画像190によりアライメントされる。画像処理デバイス110は、術前画像170をリアルタイム画像190によりオーバーレイして、外科医に、手術部位と、手術を受けている患者の基礎をなす3次元アナトミーとを同時に視覚化できるメディエイテッドリアリティビューを与える。
Furthermore, the
態様にて、シーン130(例えば、手術患者の身体)は、術前画像170をキャプチャする前に、基準マーカーを含むパッチ160により用意され得る。画像処理デバイス110は、術前画像170とリアルタイム画像190とにおける特徴の間の対応を識別することを可能にする基準マーカーの特定の特徴を識別し得る。画像処理デバイス110は、術前画像170における基準マーカーのパターンが、カメラアレイ120からのリアルタイム画像190に見られる対応するパターンとアライメントされることになるようなやり方において、術前画像170に変換を適用することがある。例えば、術前画像170は、基準マーカーを、リアルタイム画像190において対応する基準マーカーとアライメントさせるために、平行移動される、回転される、および/または曲げられることがある。
In aspects, a scene 130 (eg, a surgical patient's body) may be prepared with
態様にて、オプションとして、さらに、画像処理デバイス110は、患者が手術のために置かれた後、シーン130のキャプチャされた1つまたは複数のポジショニング後の3次元画像180も受信する。例えば、ポジショニング後画像180は、患者が手術のために置かれた後にキャプチャされた超音波画像または透視画像を含み得る。画像処理デバイス110は、術前画像170に適用して術前画像170をリアルタイム画像190にアライメントするための変換を決定する際に、ポジショニング後画像180を利用することがある。態様にて、画像処理デバイス110は、ポジショニング後画像180における基準マーカーまたは解剖学的特徴を識別し、1つまたは複数の変換を術前画像170に適用して、術前画像170をポジショニング後画像180とアライメントすることがある。今述べた変換ステップは、術前画像170をキャプチャしてから手術のために患者をポジショニングするまでの間に発生し得る解剖学的要素のポジショニングの変化に対して、術前画像170を有益に訂正することがある。
In an aspect, optionally,
画像処理デバイス110は、プロセッサーと、プロセッサーによって実行されると、本明細書に説明される画像処理デバイス110に属する機能を実行する命令を格納する非一時的なコンピューター読み取り可能記録媒体とを含むことがある。
The
例えば、ディスプレイデバイス140は、画像処理デバイス110から受信した出力画像を表示するためのヘッドマウントディスプレイデバイスまたは他のディスプレイデバイスを含むことがある。態様にて、入力コントローラー150およびディスプレイデバイス140は、ヘッドマウントディスプレイデバイスに統合され、入力コントローラー150は、ヘッドマウントディスプレイデバイスの位置および向きを検出する動きセンサーを含む。次に、仮想視点は、ヘッドマウントディスプレイデバイスの位置および向きに対応するように導出されることが可能であり、仮想視点が、ヘッドマウントディスプレイデバイスを装着している見る人によって見られるだろう視点に対応する。ゆえに、本態様にて、ヘッドマウントディスプレイデバイスは、ヘッドマウントディスプレイなしの観察者によって見られるように、シーンのリアルタイムレンダリングを提供することが可能である。代替えとして、入力コントローラー150は、見る人に、ディスプレイデバイスによって表示される仮想視点を手動により制御することを可能にするユーザーコントロールの制御デバイス(例えば、マウス、ポインティングデバイス、ハンドヘルドコントローラー、ジェスチャ認識コントローラーなど)を含み得る。
For example,
図2は、外科用の適用に対するメディエイテッドリアリティシステム100の例示的な態様を例示する。ここで、カメラアレイ120の態様は、シーン130(この場合、手術部位)上に置かれ、ワークステーション204に取り付けられたスイングアーム202を介して置かれることが可能である。スイングアーム202は、手で動かされることがある、または入力コントローラー150に応答してロボットのように制御されることがある。ワークステーション204は、カメラアレイ120およびディスプレイデバイス140の種々の機能を制御するコンピューターを含むことがあり、その上さらに、種々の構成機能を実行するためのユーザインターフェースを表示することが可能ある第2のディスプレイを含むことがある、またはディスプレイデバイス140におけるディスプレイをミラーリングし得る。画像処理デバイス120および入力コントローラー150は、各々、ワークステーション204、ディスプレイデバイス140、またはそれらの組み合わせに統合され得る。
FIG. 2 illustrates exemplary aspects of the mediated
図3Aは、メディエイテッドリアリティシステム100において、術前画像170をリアルタイムにてキャプチャされた画像190とアライメントするために利用され得る、患者300に適用されたパッチ160の例示的な態様を例示する。態様にて、パッチ160は、患者の皮膚に適用され、患者の身体の輪郭に一致させることが可能である薄くしなやかな粘着性パッチを含む。パッチ160は、関係のある外科の処置に対して関心のある解剖学的構造(例えば、脊椎動物310)に最も近く置かれ得る。パッチ160は、異なる視点からおよび異なるライティング状態の下に見られるときでさえ、術前画像170およびリアルタイム画像190の両方において画像処理デバイス110によって一意的に識別されることが可能である3次元基準マーカー320のパターンを含み得る。例えば、基準マーカー320は、各々、認識可能な3次元ジオメトリを形成する1つまたは複数のふくらんだ表面を含み得る。態様にて、各マーカーは、パッチ160の特定の領域内において一意的であり得る。態様にて、パッチ160は、各々が唯一の3次元ジオメトリを有し、各々、術前画像170およびリアルタイム画像190において一意的に認識されることが可能であり、各々、人体における特定の位置に相関させることが可能である基準マーカーのグリッド(同じ形または同じではない形であり得る)を含む。基準マーカー320は、各々、超音波画像または放射線非透過性画像(radio opaque image)によって区別されることが可能である異なる密度の材料を含み得る。
FIG. 3A illustrates exemplary aspects of a
態様にて、パッチ160は、穴をあけられた境界によって分離された断片に分割され得る。切り取り点線は、パッチ160の1つまたは複数の断片に、パッチ160全体を取り除くことなく、患者から容易に取り除かれることを可能にする。例えば、1つの使用例にて、外科医は、患者が手術のために置かれ、画像処理デバイス110が初期アライメント計算を実行した後に、望まれる切開のロケーションの上のパッチの断片を取り除くことがある。切開のロケーションの真上にないパッチ160の残りの断片は、所々に留まることがある。画像処理システム110は、アライメントを更新するために、動作全体を通して、パッチ160の残りの部分における基準マーカー320を検出し続けることがある。
In aspects,
図3Bは、パッチ160と統合され得る例示的な基準マーカー320の例示的な断面図を示す。例示されるように、基準マーカー320は、様々な3次元構造を有し、マーカー320に、リアルタイム画像190、術前画像170、およびポジショニング後画像180において互いから区別されることを可能にする様々な密度を含み得る。
FIG. 3B shows an exemplary cross-sectional view of an exemplary
図4は、リアルタイム画像190上にアライメントされ、オーバーレイされた術前画像170を用いて、手術部位のメディエイテッドリアリティビジュアライゼーションを生成するための処理の例示的な態様を例示する。画像処理デバイス110は、術前画像170を受信する402。画像処理デバイス110は、術前画像170における基準マーカーのロケーションに対応するそれぞれの3次元座標を特定する404。例えば、画像処理デバイス110は、術前画像170における基準マーカーを検出し、基準マーカーを、術前画像空間における人体のロケーションを表す3次元座標の第1のセットにマッピングする。例えば、画像処理デバイス110は、基準マーカーの一意的に認識可能な構造とパッチ160上のそれらの対応するロケーションとの間の予め定義されたマッピングを取得することがある。画像処理デバイス110は、カメラアレイ120によってキャプチャされたシーンのリアルタイム画像190を受信する406。画像処理デバイス110は、リアルタイム画像190における基準マーカーのロケーションに対応するそれぞれの3次元座標を特定する408。例えば、画像処理デバイス110は、リアルタイム画像190における基準マーカーを検出し、各基準マーカーを、リアルタイム画像空間における人体上のロケーションを表す3次元座標の第2のセットにマッピングする。次に、画像処理デバイス110は、術前画像170に1つまたは複数の変換を適用して410、術前画像170における基準マーカーのパターンをリアルタイム画像190におけるパターンに実質的にアライメントする。例えば、一態様にて、画像処理デバイス110は、最適化アルゴリズムを行って、術前画像170におけるパターンの変換された座標の間の距離を、リアルタイム画像190におけるパターンの対応する座標により最小化する変換を特定する。画像処理デバイス110は、変換された術前画像をリアルタイム画像にオーバーレイして412、メディエイテッドリアリティビューを生成する。次に、メディエイテッドリアリティビューは、表示のためにディスプレイデバイス140に提供される414。
FIG. 4 illustrates exemplary aspects of a process for generating a mediated reality visualization of a surgical site using
図5は、患者が手術のために置かれた後にキャプチャされるポジショニング後画像180に、患者が手術のために置かれる前にキャプチャされる術前画像170をアライメントするための処理の態様を例示する。画像処理デバイス110は、術前画像170を受信する502。術前画像は、例えば、CTスキャン画像を含み得る。画像処理デバイス110は、患者が手術のために置かれた後にキャプチャされたポジショニング後画像180を受信する504。ポジショニング後画像180は、例えば、超音波画像または透視画像を含み得る。画像処理デバイス110は、術前画像170およびポジショニング後画像180の両方に見られる対応する特徴のセット(例えば、パッチ上の解剖学的特徴または基準マーカー)を特定する506。次に、画像処理デバイス110は、変換を術前画像170に適用して508、術前画像において対応する特徴のロケーションをポジショニング後画像180のロケーションに実質的にアライメントする。例えば、画像処理デバイス110は、平行移動、回転、曲げ、またはそれらの組み合わせを適用して、術前画像170における特徴の変換された座標の間の距離を、ポジショニング後画像180における対応する特徴の座標により最小化することがある。変換は、術前画像170をキャプチャすることと手術のために患者を置くこととの間に起こり得る解剖学的特徴の位置の変化を有益に補う。変換された術前画像170は、次に、カメラアレイ120によってキャプチャされたリアルタイム画像190にオーバーレイされ510、手術部位のメディエイテッドリアリティビューとして、表示のためにディスプレイデバイス140に提供され512得る。
FIG. 5 illustrates aspects of a process for aligning a
その上さらに別の態様にて、変換は、ポジショニング後画像180と、リアルタイム画像190において検出された基準マーカーとの両方に基づいて、術前画像170に適用され得る。例えば、一態様にて、第1の変換は、図5の処理にしたがって術前画像170に適用されて、最初の変換を取得する。第2の変換は、次に、図4の処理に従って適用されて、術前画像170およびリアルタイム画像190において検出された基準マーカーのパターンに基づいて、各画像フレームにおけるアライメントをリファインする。
In yet another aspect, transformations may be applied to
本開示を読むとすぐに、当業者は、本明細書の原理から開示されるように、開示された態様に対してさらに追加の代替えの構造的および機能的設計を理解するだろう。ゆえに、特定の態様および適用が例示され説明されたが、開示された態様は、本明細書に開示された正確な構造および構成要素に限定されないことが理解されるべきである。当業者には明らかである種々の修正、変更、および変形は、説明された態様の範囲から逸脱することなく、本明細書に開示される方法およびシステムの配置、操作、および詳細においてなされ得る。 Upon reading this disclosure, those skilled in the art will appreciate additional structural and functional design alternatives to the disclosed embodiments as disclosed in accordance with the principles herein. Thus, while specific embodiments and applications have been illustrated and described, it is to be understood that the disclosed embodiments are not limited to the precise structures and components disclosed herein. Various modifications, changes, and variations that are apparent to those skilled in the art may be made in the arrangement, operation, and details of the methods and systems disclosed herein without departing from the scope of the described aspects.
Claims (24)
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることとであって、前記変換を適用することは、
最適化アルゴリズムを行って、前記術前画像における前記基準マーカーのパターンの変換された座標の間の距離を、前記リアルタイム画像における前記パターンの前記座標により最小化する前記変換を特定すること
を含む、ことと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。 A method for generating a mediated reality view of a surgical site by a processor , comprising:
receiving by the processor a pre-operative image representing a three-dimensional anatomy of a patient in a first position;
Based on the preoperative image, the processor identifies coordinates in a three-dimensional preoperative image space corresponding to the locations of fiducial markers provided on the patch applied to the patient, the patch comprising: positioned on a patient's body, the fiducial marker being positioned over the patch ;
the processor receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
based on the real-time image, the processor identifies coordinates in a three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the preoperative image such that the processor aligns the location of the fiducial marker in the preoperative image with the location of the fiducial marker in the real-time image, wherein the transform is applied. to do
performing an optimization algorithm to identify the transformation that minimizes the distance between transformed coordinates of the pattern of fiducial markers in the preoperative image with the coordinates of the pattern in the real-time image. , and
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
and the processor providing the mediated reality view to a display device for display.
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記基準マーカーは、1つまたは複数のふくらんだ表面を含む3次元構造を含み、前記基準マーカーの各々は、前記パッチにおける他の基準マーカーに関して一意的なジオメトリを有し、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。 A method for generating a mediated reality view of a surgical site by a processor , comprising:
receiving by the processor a pre-operative image representing a three-dimensional anatomy of a patient in a first position;
Based on the preoperative image, the processor identifies coordinates in a three-dimensional preoperative image space corresponding to locations of fiducial markers provided on the patient's applied patch, the fiducial markers comprising: a three-dimensional structure comprising one or more bulging surfaces, each of said fiducial markers having a unique geometry with respect to other fiducial markers in said patch, said patch resting on said patient's body; positioned, wherein the fiducial marker is positioned over the patch ;
the processor receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
based on the real-time image, the processor identifies coordinates in a three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
and the processor providing the mediated reality view to a display device for display.
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記基準マーカーは、視覚的に区別できる異なる密度の材料を含み、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。 A method for generating a mediated reality view of a surgical site by a processor , comprising:
receiving by the processor a pre-operative image representing a three-dimensional anatomy of a patient in a first position;
Based on the preoperative image, the processor identifies coordinates in a three-dimensional preoperative image space corresponding to locations of fiducial markers provided on the patient's applied patch, the fiducial markers comprising: said patch comprising materials of visually distinguishable different densities , said patch being placed on said patient's body, said fiducial marker being placed on said patch ;
the processor receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
based on the real-time image, the processor identifies coordinates in a three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
and the processor providing the mediated reality view to a display device for display.
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることとであって、前記変換を適用することは、
最適化アルゴリズムを行って、前記術前画像における前記基準マーカーのパターンの変換された座標の間の距離を、前記リアルタイム画像における前記パターンの前記座標により最小化する前記変換を特定すること
を含む、ことと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
を含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。 A non-transitory computer readable recording medium storing instructions for generating a mediated reality view of a surgical site, the instructions, when executed by a processor, causing the processor to:
receiving a pre-operative image representing a three-dimensional anatomy of the patient in a first position;
identifying, based on the preoperative image, coordinates in three-dimensional preoperative image space corresponding to locations of fiducial markers provided on a patch applied to the patient, the patch being located on the patient's body; and the fiducial marker is positioned over the patch ;
receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
determining, based on the real-time image, coordinates in three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image, wherein applying the transform. teeth,
performing an optimization algorithm to identify the transformation that minimizes the distance between transformed coordinates of the pattern of fiducial markers in the preoperative image with the coordinates of the pattern in the real-time image. , and
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
providing the Mediated Reality View to a display device for display;
A non-transitory computer-readable recording medium characterized by causing a step comprising :
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記基準マーカーは、1つまたは複数のふくらんだ表面を含む3次元構造を含み、前記基準マーカーの各々は、前記パッチにおける他の基準マーカーに関して一意的なジオメトリを有し、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
を含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。 A non-transitory computer readable recording medium storing instructions for generating a mediated reality view of a surgical site, the instructions, when executed by a processor, causing the processor to:
receiving a pre-operative image representing a three-dimensional anatomy of the patient in a first position;
identifying, based on the preoperative image, coordinates in a three-dimensional preoperative image space corresponding to locations of fiducial markers provided on patches applied to the patient, wherein the fiducial markers are one or a three-dimensional structure comprising a plurality of bulging surfaces, each of said fiducial markers having a unique geometry with respect to other fiducial markers in said patch, said patch being positioned on said patient's body; wherein the fiducial marker is positioned over the patch ;
receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
determining, based on the real-time image, coordinates in three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
providing the Mediated Reality View to a display device for display;
A non-transitory computer-readable recording medium characterized by causing a step comprising :
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記基準マーカーは、視覚的に区別できる異なる密度の材料を含み、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
を含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。 A non-transitory computer readable recording medium storing instructions for generating a mediated reality view of a surgical site, the instructions, when executed by a processor, causing the processor to:
receiving a pre-operative image representing a three-dimensional anatomy of the patient in a first position;
identifying, based on the preoperative image, coordinates in a three-dimensional preoperative image space corresponding to the location of fiducial markers provided on the patch applied to the patient, the fiducial markers visually said patch comprising materials of distinguishable different densities , said patch being placed on said patient's body and said fiducial marker being placed on said patch ;
receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
determining, based on the real-time image, coordinates in three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
providing the Mediated Reality View to a display device for display;
A non-transitory computer-readable recording medium characterized by causing a step comprising :
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962796065P | 2019-01-23 | 2019-01-23 | |
US62/796,065 | 2019-01-23 | ||
PCT/US2020/014674 WO2020154448A1 (en) | 2019-01-23 | 2020-01-22 | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517132A JP2022517132A (en) | 2022-03-04 |
JP7138802B2 true JP7138802B2 (en) | 2022-09-16 |
Family
ID=71609486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542469A Active JP7138802B2 (en) | 2019-01-23 | 2020-01-22 | Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site |
Country Status (5)
Country | Link |
---|---|
US (3) | US10912625B2 (en) |
EP (1) | EP3897346A4 (en) |
JP (1) | JP7138802B2 (en) |
CA (1) | CA3127605C (en) |
WO (1) | WO2020154448A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017114834A1 (en) * | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
US20210153959A1 (en) * | 2019-11-26 | 2021-05-27 | Intuitive Surgical Operations, Inc. | Physical medical element affixation systems, methods, and materials |
US11295460B1 (en) | 2021-01-04 | 2022-04-05 | Proprio, Inc. | Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene |
CA3226288A1 (en) * | 2021-07-13 | 2023-01-19 | Proprio, Inc. | Methods and systems for displaying preoperative and intraoperative image data of a scene |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013531525A (en) | 2010-06-13 | 2013-08-08 | アンジオメトリックス コーポレーション | Method and system for determining vessel lumen information and guiding a medical device |
WO2014200017A1 (en) | 2013-06-11 | 2014-12-18 | Tanji Atsushi | Bone cutting assistance system, information processing device, image processing method, and image processing program |
JP2016539768A (en) | 2013-11-11 | 2016-12-22 | アエスキュラップ アーゲー | Surgical reference device, surgical guidance system and method |
WO2018195529A1 (en) | 2017-04-21 | 2018-10-25 | Samadani Uzma | Using augmented reality in surgical navigation |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6167296A (en) * | 1996-06-28 | 2000-12-26 | The Board Of Trustees Of The Leland Stanford Junior University | Method for volumetric image navigation |
US6990220B2 (en) * | 2001-06-14 | 2006-01-24 | Igo Technologies Inc. | Apparatuses and methods for surgical navigation |
US8126224B2 (en) * | 2004-02-03 | 2012-02-28 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images |
US8165659B2 (en) * | 2006-03-22 | 2012-04-24 | Garrett Sheffer | Modeling method and apparatus for use in surgical navigation |
US20070238982A1 (en) * | 2006-03-29 | 2007-10-11 | Caylor Edward J Iii | System and method for monitoring kinematic motion of a patient |
US8108025B2 (en) * | 2007-04-24 | 2012-01-31 | Medtronic, Inc. | Flexible array for use in navigated surgery |
WO2009042155A2 (en) * | 2007-09-24 | 2009-04-02 | Surgivision, Inc. | Mri-compatible patches and methods for using the same |
JP5936687B2 (en) * | 2011-07-18 | 2016-06-22 | トムソン ライセンシングThomson Licensing | Adaptive entropy coding method of tree structure |
US20130249907A1 (en) * | 2011-09-12 | 2013-09-26 | Medical Modeling Inc., a Colorado Corporaiton | Fiducial system to facilitate co-registration and image pixel calibration of multimodal data |
US9314219B2 (en) * | 2013-02-27 | 2016-04-19 | Paul J Keall | Method to estimate real-time rotation and translation of a target with a single x-ray imager |
US20170042631A1 (en) * | 2014-04-22 | 2017-02-16 | Surgerati, Llc | Intra-operative medical image viewing system and method |
CA2949241A1 (en) * | 2014-05-20 | 2015-11-26 | University Of Washington Through Its Center For Commercialization | Systems and methods for mediated-reality surgical visualization |
US9734595B2 (en) * | 2014-09-24 | 2017-08-15 | University of Maribor | Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds |
CN107004044A (en) * | 2014-11-18 | 2017-08-01 | 皇家飞利浦有限公司 | The user guidance system and method for augmented reality equipment, use |
EP3163536B1 (en) * | 2015-10-30 | 2021-12-08 | Dassault Systèmes | Compression of a three-dimensional modeled object |
JP2019534717A (en) * | 2016-08-16 | 2019-12-05 | インサイト メディカル システムズ インコーポレイテッド | System for sensory enhancement in medical procedures |
JP7012302B2 (en) * | 2016-09-16 | 2022-01-28 | インテリジェンスファクトリー合同会社 | Surgery support terminals and programs |
US20180092698A1 (en) * | 2016-10-04 | 2018-04-05 | WortheeMed, Inc. | Enhanced Reality Medical Guidance Systems and Methods of Use |
US11612307B2 (en) | 2016-11-24 | 2023-03-28 | University Of Washington | Light field capture and rendering for head-mounted displays |
KR20200015803A (en) * | 2017-07-03 | 2020-02-12 | 스파인 얼라인, 엘엘씨 | Alignment evaluation system and method during surgery |
-
2020
- 2020-01-22 US US16/749,963 patent/US10912625B2/en active Active
- 2020-01-22 WO PCT/US2020/014674 patent/WO2020154448A1/en unknown
- 2020-01-22 JP JP2021542469A patent/JP7138802B2/en active Active
- 2020-01-22 CA CA3127605A patent/CA3127605C/en active Active
- 2020-01-22 EP EP20744787.1A patent/EP3897346A4/en active Pending
- 2020-08-17 US US16/995,756 patent/US11376096B2/en active Active
-
2022
- 2022-05-13 US US17/744,110 patent/US20220265385A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013531525A (en) | 2010-06-13 | 2013-08-08 | アンジオメトリックス コーポレーション | Method and system for determining vessel lumen information and guiding a medical device |
WO2014200017A1 (en) | 2013-06-11 | 2014-12-18 | Tanji Atsushi | Bone cutting assistance system, information processing device, image processing method, and image processing program |
JP2016539768A (en) | 2013-11-11 | 2016-12-22 | アエスキュラップ アーゲー | Surgical reference device, surgical guidance system and method |
WO2018195529A1 (en) | 2017-04-21 | 2018-10-25 | Samadani Uzma | Using augmented reality in surgical navigation |
Also Published As
Publication number | Publication date |
---|---|
JP2022517132A (en) | 2022-03-04 |
US11376096B2 (en) | 2022-07-05 |
EP3897346A4 (en) | 2022-09-28 |
CA3127605A1 (en) | 2020-07-30 |
EP3897346A1 (en) | 2021-10-27 |
WO2020154448A1 (en) | 2020-07-30 |
US20200375689A1 (en) | 2020-12-03 |
CA3127605C (en) | 2022-08-02 |
US20220265385A1 (en) | 2022-08-25 |
US10912625B2 (en) | 2021-02-09 |
US20200229893A1 (en) | 2020-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7138802B2 (en) | Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site | |
US10258427B2 (en) | Mixed reality imaging apparatus and surgical suite | |
US11350072B1 (en) | Augmented reality guidance for bone removal and osteotomies in spinal surgery including deformity correction | |
JP2023175709A (en) | Registration for spatial tracking system and augmented reality display | |
US11896441B2 (en) | Systems and methods for measuring a distance using a stereoscopic endoscope | |
CN113950301A (en) | System for computer guided surgery | |
NL2022371B1 (en) | Method and assembly for spatial mapping of a model of a surgical tool onto a spatial location of the surgical tool, as well as a surgical tool | |
CN113034700A (en) | Anterior cruciate ligament reconstruction surgery navigation method and system based on mobile terminal | |
CN110638525B (en) | Operation navigation system integrating augmented reality | |
JP6943884B2 (en) | Hybrid X-ray / camera intervention motion compensation | |
JP6306532B2 (en) | Three-dimensional data processing system, method, program, three-dimensional model, and three-dimensional model shaping apparatus | |
JP2019161558A (en) | Organ tracking device, organ tracking method, and organ tracking program | |
US20230196595A1 (en) | Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138802 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |