JP7138802B2 - Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site - Google Patents

Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site Download PDF

Info

Publication number
JP7138802B2
JP7138802B2 JP2021542469A JP2021542469A JP7138802B2 JP 7138802 B2 JP7138802 B2 JP 7138802B2 JP 2021542469 A JP2021542469 A JP 2021542469A JP 2021542469 A JP2021542469 A JP 2021542469A JP 7138802 B2 JP7138802 B2 JP 7138802B2
Authority
JP
Japan
Prior art keywords
patch
image
real
patient
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021542469A
Other languages
Japanese (ja)
Other versions
JP2022517132A (en
Inventor
アール.ブラウド サムエル
アンドリュー ヤングクイスト ジェームズ
ガブリエル ジョーンズ アダム
Original Assignee
プロプリオ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by プロプリオ インコーポレイテッド filed Critical プロプリオ インコーポレイテッド
Publication of JP2022517132A publication Critical patent/JP2022517132A/en
Application granted granted Critical
Publication of JP7138802B2 publication Critical patent/JP7138802B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3991Markers, e.g. radio-opaque or breast lesions markers having specific anchoring means to fixate the marker to the tissue, e.g. hooks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Description

本発明は、画像のアライメントに関し、より詳細には、手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメントに関する The present invention relates to image alignment, and more particularly to alignment of preoperative scan images to real-time surgical images for a mediated reality view of the surgical site.

手術を行うとき、多くの場合、外科医は、CT(computed tomography:コンピューター断層撮影)スキャン画像のような患者のアナトミーの術前3次元画像を当てにする。しかしながら、上記の術前画像の有用性は、画像を手術行為に容易に統合することができないので制限される。たとえば、画像が術前のセッションにおいてキャプチャされるので、術前画像にキャプチャされる相対的な解剖学的な位置は、手術行為の間、実際の位置と一致しないことがある。その上さらに、手術の間に術前画像を利用するのに、外科医は、注意を手術野と術前画像の表示とに割りふらなければならない。その上さらに、術前画像の異なる層の間を注意しながら進むことは、手術における外科医の焦点から奪い取る重要な注意を必要とすることがある。 When performing surgery, surgeons often rely on preoperative three-dimensional images of the patient's anatomy, such as CT (computed tomography) scan images. However, the usefulness of such preoperative images is limited because the images cannot be easily integrated into the surgical procedure. For example, because the images are captured in a preoperative session, the relative anatomical positions captured in the preoperative images may not match the actual positions during the surgical procedure. Furthermore, utilizing preoperative images during surgery requires the surgeon to divide his attention between the surgical field and the display of the preoperative images. Furthermore, carefully navigating between different layers of preoperative images may require significant attention that takes away from the surgeon's focus in surgery.

イメージングシステムの例示的な態様である。1 is an exemplary embodiment of an imaging system; メディエイテッドリアリティ(mediated-reality)アシスト手術のためのイメージングシステムを使う手術環境の例である。An example of a surgical environment using an imaging system for mediated-reality assisted surgery. 術前スキャン画像にリアルタイム手術画像をアライメントするための基準マーカー付きの身体パッチの態様の上面図である。FIG. 12A is a top view of an embodiment of a body patch with fiducial markers for aligning real-time surgical images to pre-operative scan images. 術前スキャン画像にリアルタイム手術画像をアライメントするための基準マーカー付きの身体パッチの態様の断面図である。FIG. 10 is a cross-sectional view of an embodiment of a body patch with fiducial markers for aligning real-time surgical images to pre-operative scan images; 術前画像に基づいて手術部位のメディエイテッドリアリティビュー(mediated-reality view)を生成するための処理の態様を例示するフローチャートである。FIG. 4 is a flow chart illustrating aspects of a process for generating a mediated-reality view of a surgical site based on pre-operative images; FIG. 患者が手術のために置かれた後にキャプチャされるポジショニング後の画像に、患者が手術のために置かれる前にキャプチャされる術前画像をアライメントするための処理の態様を例示する。4 illustrates aspects of a process for aligning pre-operative images captured before the patient is positioned for surgery with post-positioning images captured after the patient is positioned for surgery;

図面および次の説明は、例示のみとして、好ましい態様に関する。後に続く議論から、本明細書に開示される構造および方法の代替えの態様が、主張されるものの原理から逸脱することなく使われ得る実行可能な代替のものとして直ちに認められるだろうということは、特筆されるべきである。 The drawings and the following description relate, by way of illustration only, to preferred embodiments. From the discussion that follows, it will be readily appreciated that alternative embodiments of the structures and methods disclosed herein will be readily recognized as viable alternatives that may be used without departing from the principles of what is being claimed. It should be noted.

今、詳細にいくつかの態様に言及され、例が添付の図面に例示される。実行可能な場合はいつでも、類似のまたは同一の参照符号化が、図面において使用されることがあり、類似のまたは同一の機能性を示し得ることが特筆される。図面は、例示のみの目的のために、開示されるシステム(または方法)の態様を描いている。当業者は、次の説明から、本明細書に例示される構造および方法の代替の態様が、本明細書に説明される原則から逸脱することなく、使われることがあることを直ちに認めるだろう。 Reference will now be made in detail to certain aspects, examples of which are illustrated in the accompanying drawings. It is noted that, wherever practicable, similar or identical reference markings may be used in the drawings to indicate similar or identical functionality. The drawings depict aspects of the disclosed system (or method) for purposes of illustration only. Those skilled in the art will readily recognize from the ensuing description that alternative embodiments of the structures and methods illustrated herein may be used without departing from the principles set forth herein. .

外科用の適用に対するメディエイテッドリアリティシステム(mediated-reality system)は、術前画像と手術部位のリアルタイムにてキャプチャされる画像とを、外科の処置の間、外科医によって身につけられるヘッドマウントディスプレイに映されるビジュアライゼーションへ組み入れる。メディエイテッドリアリティシステムは、外科医の頭の位置をトラッキングし、外科医の頭の位置に対応するバーチャルカメラの視点から手術部位のリアルタイム画像を生成して、外科医に自然に見える地点を模倣する。その上さらに、メディエイテッドリアリティシステムは、バーチャルカメラの視点からのリアルタイム画像により術前画像をアライメントし、バーチャルカメラの視点を表すリアルタイム画像にオーバーレイされたアライメントされた術前3次元画像またはそれの選択された部分を有する手術部位のメディエイテッドリアリティビジュアライゼーション(mediated-reality visualization)を与える。ゆえに、メディエイテッドリアリティシステムは、解剖学的特徴がリアルタイム画像において外科医の視界から遮られ得るときでさえ、外科医に、切開をする前におよび処置の間じゅう、患者の基礎をなす3次元アナトミーを視覚化できるようにする。その上さらに、技術は、外科医の視界を手術部位から逸らさないやり方にてビジュアライゼーションを有益に提供し、ゆえに、高い能率および精度の手術を行う外科医の能力を高める。 A mediated-reality system for surgical applications projects pre-operative images and real-time captured images of the surgical site onto a head-mounted display worn by the surgeon during the surgical procedure. Incorporate into the visualization that will be used. The mediated reality system tracks the position of the surgeon's head and generates a real-time image of the surgical site from a virtual camera's perspective corresponding to the surgeon's head position, mimicking a point that would appear natural to the surgeon. Furthermore, the mediated reality system aligns the pre-operative image with a real-time image from the virtual camera's point of view, and a selection of aligned pre-operative three-dimensional images overlaid on the real-time image representing the virtual camera's point of view. Provides mediated-reality visualization of the surgical site with the mediated portion. Thus, the mediated reality system provides the surgeon with an underlying three-dimensional anatomy of the patient prior to making an incision and throughout the procedure, even when anatomical features may be obscured from the surgeon's view in real-time images. make it visible. Furthermore, the technology beneficially provides visualization in a manner that does not distract the surgeon from the surgical site, thus enhancing the surgeon's ability to perform surgery with high efficiency and precision.

態様にて、基準マーカー(fiducial marker)を含むパッチは、患者の身体に配置され、術前のイメージングの間、および患者が手術のために置かれた後に、所々に留まる。基準マーカーは、術前画像と、患者が手術のために置かれた後にキャプチャされるリアルタイム画像との両方において、メディエイテッドリアリティシステムによって認識されることが可能であるパターンを含む。メディエイテッドリアリティシステムは、両方の画像セットに見られる基準マーカーの検出された位置に基づいて、リアルタイム画像により術前画像をアライメントする。例えば、メディエイテッドリアリティシステムは、1つまたは複数の変換を術前画像に適用し、術前画像において検出される基準マーカーに、リアルタイム画像において検出される対応する基準マーカーによりアライメントさせ得る。 In embodiments, patches containing fiducial markers are placed on the patient's body and remain in place during preoperative imaging and after the patient is positioned for surgery. The fiducial markers include patterns that can be recognized by the mediated reality system in both pre-operative images and real-time images captured after the patient is positioned for surgery. The mediated reality system aligns the pre-operative image with the real-time image based on the detected positions of fiducial markers found in both image sets. For example, the mediated reality system may apply one or more transformations to the preoperative image to align fiducial markers detected in the preoperative image with corresponding fiducial markers detected in the real-time image.

別の態様にて、超音波画像または透視画像のような3次元画像は、患者が手術のために置かれた後にキャプチャされることがあり、術前画像スキャンと手術のための患者のポジショニングとの間に起こる解剖学的特徴の3次元位置の変化を予測するのに利用され得る。次に、術前画像は、術前画像スキャンにおける解剖学的特徴のポジショニングを、患者が手術のために置かれた後にキャプチャされる3次元画像に見られる解剖学的特徴の検出される位置にアライメントするために曲げられて、起こることがある変化を補い得る。 In another aspect, a three-dimensional image, such as an ultrasound image or a fluoroscopic image, may be captured after the patient is positioned for surgery, preoperative image scanning and patient positioning for surgery. It can be used to predict changes in the three-dimensional position of anatomical features that occur during The preoperative image then maps the positioning of the anatomical features in the preoperative image scan to the detected locations of the anatomical features seen in the three-dimensional images captured after the patient is positioned for surgery. It can be bent to align to compensate for changes that may occur.

その上さらに別の態様にて、基準マーカーとポジショニング後(post-positioning)の画像との組み合わせは、術前画像を、メディエイテッドリアリティビジュアライゼーションにおけるリアルタイム画像にアライメントするのに使用され得る。例えば、術前画像とポジショニング後の画像とが、比較されて、基準マーカーの位置が画像間の3次元空間においてどのように変化するのかを決定し、変換が、導出され、術前画像を変換して、ポジショニング後の画像におけるそれぞれのロケーションにより基準マーカーをアライメントし得る。 In yet another aspect, a combination of fiducial markers and post-positioning images can be used to align pre-operative images to real-time images in mediated reality visualization. For example, the pre-operative image and the post-positioning image are compared to determine how the positions of the fiducial markers change in the three-dimensional space between the images, and a transform is derived to transform the pre-operative image. to align the fiducial markers with their respective locations in the image after positioning.

特定の例示的な態様にて、方法は、手術部位のメディエイテッドリアリティビュー(mediated reality view)を生成する。術前画像が、受信され、第1の位置における患者の3次元アナトミーを表す。術前画像に基づいて、座標が、患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間において特定される。カメラアレイからのリアルタイム画像は、患者が第2の位置に手術のために置かれた後に、受信される。リアルタイム画像に基づいて、3次元リアルタイム画像空間における座標が、特定され、患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する。変換が、術前画像に適用されて、術前画像における基準マーカーのロケーションを、リアルタイム画像における基準マーカーのロケーションに実質的にアライメントする。変換された術前画像は、リアルタイム画像上にオーバーレイされて、メディエイテッドリアリティビュー(mediated reality view)を生成し、メディエイテッドリアリティビューは、表示のためにディスプレイデバイスに提供される。 In certain exemplary aspects, the method generates a mediated reality view of the surgical site. A preoperative image is received representing a three-dimensional anatomy of the patient at a first position. Based on the preoperative image, coordinates are identified in three-dimensional preoperative image space corresponding to the location of fiducial markers provided on the patch applied to the patient. Real-time images from the camera array are received after the patient is positioned for surgery at the second location. Based on the real-time images, coordinates in the three-dimensional real-time image space are identified and correspond to the locations of fiducial markers provided on the patch applied to the patient. A transform is applied to the preoperative image to substantially align the locations of the fiducial markers in the preoperative image with the locations of the fiducial markers in the real-time image. The transformed pre-operative image is overlaid on the real-time image to generate a mediated reality view, which is provided to the display device for display.

別の特定の態様にて、方法は、パッチ上の基準マーカーを必ずしも当てにすることなく、手術部位のメディエイテッドリアリティビューを生成する。本態様にて、術前画像が、受信され、第1の位置における患者の3次元アナトミーを表す。患者が第2の位置に手術のために置かれた後にキャプチャされたポジショニング後の画像が受信される。術前画像とポジショニング後の画像とに基づいて、術前画像とポジショニング後の画像とに見られる対応する特徴のセットが特定される。第1の変換が術前画像に適用されて、術前画像において対応する特徴のロケーションを、ポジショニング後の画像のそれぞれのロケーションに実質的にアライメントして、最初の変換された術前画像を生成する。カメラアレイは、患者のリアルタイム画像をキャプチャし、最初の変換された術前画像をリアルタイム画像にオーバーレイして、表示のためにディスプレイデバイスに提供される最初のメディエイテッドリアリティビューを生成する。上に説明された態様に関するさらなる詳細および追加の態様の説明が、以下に提供される。 In another particular aspect, the method generates a mediated reality view of the surgical site without necessarily relying on fiducial markers on the patch. In this aspect, a pre-operative image is received representing a three-dimensional anatomy of the patient in a first position. A post-positioning image captured after the patient is surgically placed in the second position is received. Based on the pre-operative and post-positioning images, a set of corresponding features found in the pre-operative and post-positioning images is identified. A first transformation is applied to the preoperative image to substantially align the locations of corresponding features in the preoperative image with their respective locations in the post-positioning image to produce an initial transformed preoperative image. do. A camera array captures real-time images of the patient and overlays the initial transformed preoperative images onto the real-time images to produce an initial mediated reality view provided to the display device for display. Further details regarding the above-described aspects and descriptions of additional aspects are provided below.

図1は、画像処理デバイス110、カメラアレイ120、ディスプレイデバイス140、および入力コントローラー150を含むメディエイテッドリアリティシステム100の例示的な態様を例示する。代替えの態様にて、メディエイテッドリアリティシステム100は、追加のまたは異なる構成要素を含み得る。 FIG. 1 illustrates exemplary aspects of a mediated reality system 100 including an image processing device 110, a camera array 120, a display device 140, and an input controller 150. FIG. In alternate aspects, the mediated reality system 100 may include additional or different components.

カメラアレイ120は、各々がシーン130のそれぞれのリアルタイム画像190をキャプチャする複数のカメラ122(例えば、カメラ122-1、カメラ122-2、・・・、カメラ122-N)を含む。カメラ122は、それらの物理的なロケーションおよび向きが互いに関して固定されるように、特定の構成において物理的に配列され得る。例えば、カメラ122は、カメラ122を予め定義された固定されたロケーションおよび向きに搭載される取り付け構造によって構造的にしっかり固定され得る。カメラアレイ120のカメラ122は、隣接するカメラがシーン130の重なり合うビューを共有し得るように置かれ得る。その上さらに、カメラアレイ120におけるカメラ122は、シーン130の画像190を実質的に同時に(例えば、しきい値時間誤差内に)キャプチャするように同期され得る。その上さらに、カメラアレイ120は、構造化された光パターンをシーン130上に投影する1つまたは複数のプロジェクター124を含み得る。態様にて、カメラ122は、シーン130のライトフィールド情報をキャプチャするライトフィールドカメラを含み得る。ここで、カメラ122は、光の強度と、シーンを表す光線の方向との両方をキャプチャする。ゆえに、ライトフィールド画像190は、深度情報をエンコードし、シーンの再生成を3次元画像として可能にする。 Camera array 120 includes multiple cameras 122 (eg, camera 122-1, camera 122-2, . Cameras 122 may be physically arranged in a particular configuration such that their physical locations and orientations are fixed with respect to each other. For example, camera 122 may be structurally secured by a mounting structure that mounts camera 122 in a predefined fixed location and orientation. Cameras 122 of camera array 120 may be positioned such that adjacent cameras may share overlapping views of scene 130 . Furthermore, cameras 122 in camera array 120 may be synchronized to capture images 190 of scene 130 at substantially the same time (eg, within a threshold time error). Still further, camera array 120 may include one or more projectors 124 that project structured light patterns onto scene 130 . In aspects, camera 122 may include a light field camera that captures light field information of scene 130 . Here, the camera 122 captures both the intensity of the light and the direction of the rays representing the scene. Hence, the light field image 190 encodes depth information and enables scene reconstruction as a three-dimensional image.

画像処理デバイス110は、カメラアレイ120によってキャプチャされた画像190を受信し、画像を処理して、バーチャルカメラの視点に対応する出力画像を合成する。ここで、出力画像は、バーチャルカメラの視点に対応する任意の位置および向きに配置されたカメラによってキャプチャされるだろうシーン130の画像の近似に対応する。画像処理デバイス110は、カメラアレイ120におけるカメラ122のサブセット(例えば、1つまたは複数)からの出力画像を合成するが、必ずしもすべてのカメラ122からの画像190を利用しない。例えば、与えられたバーチャルカメラの視点に対して、画像処理デバイス110は、バーチャルカメラの視点に最も密接に調和するように置かれたおよび向き付けられた2つのカメラ122から画像の立体映像のペア190を選択し得る。その上さらに、画像処理デバイス110は、プロジェクターによってシーン130上に投影された構造化された光を検出して、シーンの深度情報を推定し得る。深度情報が、カメラ122からの画像190と組み合わされて、バーチャルカメラの視点から見られるシーン130として、3次元レンダリングとして出力画像を合成し得る。代替えとして、構造化された光のプロジェクター124は省略されることがあり、画像処理デバイス110は、1つまたは複数のカメラ122によってキャプチャされた画像190から単独において3次元レンダリングを導出することがある。 The image processing device 110 receives the image 190 captured by the camera array 120 and processes the image to synthesize an output image corresponding to the viewpoint of the virtual camera. Here, the output image corresponds to an approximation of the image of the scene 130 that would be captured by a camera placed at an arbitrary position and orientation corresponding to the viewpoint of the virtual camera. Image processing device 110 combines output images from a subset (eg, one or more) of cameras 122 in camera array 120 but does not necessarily utilize images 190 from all cameras 122 . For example, for a given virtual camera viewpoint, image processing device 110 generates a stereoscopic pair of images from two cameras 122 positioned and oriented to most closely match the virtual camera viewpoint. 190 can be selected. Furthermore, the image processing device 110 may detect structured light projected onto the scene 130 by the projector to estimate depth information of the scene. The depth information may be combined with the image 190 from the camera 122 to synthesize the output image as a three-dimensional rendering of the scene 130 as seen from the perspective of the virtual camera. Alternatively, the structured light projector 124 may be omitted, and the image processing device 110 may solely derive the three-dimensional rendering from the images 190 captured by the one or more cameras 122. .

バーチャルカメラの視点は、バーチャルカメラの視点の位置および向きに対応する制御入力を提供する入力コントローラー150によって制御され得る。バーチャルカメラの視点に対応する出力画像は、ディスプレイデバイス140に出力され、ディスプレイデバイス140によって表示される。出力画像は、バーチャルカメラの視点を表すビデオを合成するために、高フレームレートで更新され得る。その上さらに、画像処理デバイス110は、入力コントローラー150から受信した入力を有益に処理し、カメラアレイ120からキャプチャされた画像190を処理して、ディスプレイデバイス140の見る人によって知覚される実質的にリアルタイム(例えば、少なくともカメラアレイ120のフレームレートと同じ速さ)にて仮想視点に対応する出力画像を生成し得る。 The viewpoint of the virtual camera may be controlled by an input controller 150 that provides control inputs corresponding to the position and orientation of the virtual camera viewpoint. An output image corresponding to the viewpoint of the virtual camera is output to display device 140 and displayed by display device 140 . The output image can be updated at a high frame rate to synthesize a video representing the viewpoint of the virtual camera. Furthermore, the image processing device 110 beneficially processes the input received from the input controller 150 and processes the image 190 captured from the camera array 120 to provide a substantially An output image corresponding to the virtual viewpoint may be generated in real-time (eg, at least as fast as the frame rate of the camera array 120).

その上さらに、画像処理デバイス110は、例えば、CTスキャン画像、超音波画像、または透視画像のような3次元の容積を表す術前画像170を受信し得る。以下にさらに詳細に説明されるように、画像処理デバイス110は、カメラアレイ120によってキャプチャされたリアルタイム画像190の視覚的特徴に対応する術前画像170における視覚的特徴を検出し得る。次に、画像処理デバイス110は、1つまたは複数の変換を術前画像170に適用して、術前画像170(またはその一部)において検出された特徴を、リアルタイム画像190において検出された対応する特徴にアライメントし得る。画像処理デバイス110は、フレームごとベースに1つまたは複数の変換を適用されることがあり、術前画像170が、仮想視点が変化するように、各フレームにおけるリアルタイム画像190によりアライメントされる。画像処理デバイス110は、術前画像170をリアルタイム画像190によりオーバーレイして、外科医に、手術部位と、手術を受けている患者の基礎をなす3次元アナトミーとを同時に視覚化できるメディエイテッドリアリティビューを与える。 Furthermore, the image processing device 110 may receive a pre-operative image 170 representing a three-dimensional volume such as, for example, a CT scan image, an ultrasound image, or a fluoroscopic image. As described in further detail below, image processing device 110 may detect visual features in pre-operative image 170 that correspond to visual features in real-time image 190 captured by camera array 120 . Image processing device 110 then applies one or more transforms to pre-operative image 170 to convert features detected in pre-operative image 170 (or portions thereof) to correspondences detected in real-time image 190 . can be aligned with the features that The image processing device 110 may apply one or more transformations on a frame-by-frame basis such that the pre-operative image 170 is aligned with the real-time image 190 in each frame such that the virtual viewpoint changes. The image processing device 110 overlays the preoperative images 170 with real-time images 190 to provide the surgeon with a mediated reality view that can simultaneously visualize the surgical site and the underlying three-dimensional anatomy of the patient undergoing surgery. give.

態様にて、シーン130(例えば、手術患者の身体)は、術前画像170をキャプチャする前に、基準マーカーを含むパッチ160により用意され得る。画像処理デバイス110は、術前画像170とリアルタイム画像190とにおける特徴の間の対応を識別することを可能にする基準マーカーの特定の特徴を識別し得る。画像処理デバイス110は、術前画像170における基準マーカーのパターンが、カメラアレイ120からのリアルタイム画像190に見られる対応するパターンとアライメントされることになるようなやり方において、術前画像170に変換を適用することがある。例えば、術前画像170は、基準マーカーを、リアルタイム画像190において対応する基準マーカーとアライメントさせるために、平行移動される、回転される、および/または曲げられることがある。 In aspects, a scene 130 (eg, a surgical patient's body) may be prepared with patches 160 containing fiducial markers prior to capturing pre-operative images 170 . Image processing device 110 may identify certain features of the fiducial markers that allow identification of correspondence between features in pre-operative image 170 and real-time image 190 . Image processing device 110 transforms preoperative image 170 in such a way that the pattern of fiducial markers in preoperative image 170 will be aligned with the corresponding pattern seen in real-time image 190 from camera array 120 . may apply. For example, pre-operative image 170 may be translated, rotated, and/or bent to align fiducial markers with corresponding fiducial markers in real-time image 190 .

態様にて、オプションとして、さらに、画像処理デバイス110は、患者が手術のために置かれた後、シーン130のキャプチャされた1つまたは複数のポジショニング後の3次元画像180も受信する。例えば、ポジショニング後画像180は、患者が手術のために置かれた後にキャプチャされた超音波画像または透視画像を含み得る。画像処理デバイス110は、術前画像170に適用して術前画像170をリアルタイム画像190にアライメントするための変換を決定する際に、ポジショニング後画像180を利用することがある。態様にて、画像処理デバイス110は、ポジショニング後画像180における基準マーカーまたは解剖学的特徴を識別し、1つまたは複数の変換を術前画像170に適用して、術前画像170をポジショニング後画像180とアライメントすることがある。今述べた変換ステップは、術前画像170をキャプチャしてから手術のために患者をポジショニングするまでの間に発生し得る解剖学的要素のポジショニングの変化に対して、術前画像170を有益に訂正することがある。 In an aspect, optionally, image processing device 110 also receives one or more captured post-positioning three-dimensional images 180 of scene 130 after the patient has been positioned for surgery. For example, post-positioning images 180 may include ultrasound or fluoroscopy images captured after the patient is positioned for surgery. Image processing device 110 may utilize post-positioning image 180 in determining a transform to apply to pre-operative image 170 to align pre-operative image 170 with real-time image 190 . In aspects, image processing device 110 identifies fiducial markers or anatomical features in post-positioning image 180 and applies one or more transformations to pre-operative image 170 to transform pre-operative image 170 into a post-positioning image. 180 may be aligned. The conversion step just described renders the preoperative image 170 useful for changes in the positioning of anatomical elements that may occur between capturing the preoperative image 170 and positioning the patient for surgery. Corrections may be made.

画像処理デバイス110は、プロセッサーと、プロセッサーによって実行されると、本明細書に説明される画像処理デバイス110に属する機能を実行する命令を格納する非一時的なコンピューター読み取り可能記録媒体とを含むことがある。 The image processing device 110 includes a processor and a non-transitory computer-readable medium that stores instructions that, when executed by the processor, perform the functions attributed to the image processing device 110 described herein. There is

例えば、ディスプレイデバイス140は、画像処理デバイス110から受信した出力画像を表示するためのヘッドマウントディスプレイデバイスまたは他のディスプレイデバイスを含むことがある。態様にて、入力コントローラー150およびディスプレイデバイス140は、ヘッドマウントディスプレイデバイスに統合され、入力コントローラー150は、ヘッドマウントディスプレイデバイスの位置および向きを検出する動きセンサーを含む。次に、仮想視点は、ヘッドマウントディスプレイデバイスの位置および向きに対応するように導出されることが可能であり、仮想視点が、ヘッドマウントディスプレイデバイスを装着している見る人によって見られるだろう視点に対応する。ゆえに、本態様にて、ヘッドマウントディスプレイデバイスは、ヘッドマウントディスプレイなしの観察者によって見られるように、シーンのリアルタイムレンダリングを提供することが可能である。代替えとして、入力コントローラー150は、見る人に、ディスプレイデバイスによって表示される仮想視点を手動により制御することを可能にするユーザーコントロールの制御デバイス(例えば、マウス、ポインティングデバイス、ハンドヘルドコントローラー、ジェスチャ認識コントローラーなど)を含み得る。 For example, display device 140 may include a head-mounted display device or other display device for displaying output images received from image processing device 110 . In aspects, input controller 150 and display device 140 are integrated into a head-mounted display device, and input controller 150 includes motion sensors that detect the position and orientation of the head-mounted display device. A virtual viewpoint can then be derived to correspond to the position and orientation of the head-mounted display device, where the virtual viewpoint would be viewed by a viewer wearing the head-mounted display device. corresponds to Thus, in this aspect, the head-mounted display device is capable of providing real-time rendering of the scene as viewed by an observer without the head-mounted display. Alternatively, the input controller 150 is a user-controlled control device (e.g., mouse, pointing device, handheld controller, gesture recognition controller, etc.) that allows the viewer to manually control the virtual viewpoint displayed by the display device. ).

図2は、外科用の適用に対するメディエイテッドリアリティシステム100の例示的な態様を例示する。ここで、カメラアレイ120の態様は、シーン130(この場合、手術部位)上に置かれ、ワークステーション204に取り付けられたスイングアーム202を介して置かれることが可能である。スイングアーム202は、手で動かされることがある、または入力コントローラー150に応答してロボットのように制御されることがある。ワークステーション204は、カメラアレイ120およびディスプレイデバイス140の種々の機能を制御するコンピューターを含むことがあり、その上さらに、種々の構成機能を実行するためのユーザインターフェースを表示することが可能ある第2のディスプレイを含むことがある、またはディスプレイデバイス140におけるディスプレイをミラーリングし得る。画像処理デバイス120および入力コントローラー150は、各々、ワークステーション204、ディスプレイデバイス140、またはそれらの組み合わせに統合され得る。 FIG. 2 illustrates exemplary aspects of the mediated reality system 100 for surgical applications. Here, aspects of the camera array 120 can be placed over the scene 130 (in this case, the surgical site) and placed via a swing arm 202 attached to a workstation 204 . The swing arm 202 may be manually moved or robotically controlled in response to the input controller 150 . Workstation 204 may include a computer that controls various functions of camera array 120 and display device 140, as well as a second computer capable of displaying a user interface for performing various configuration functions. , or may mirror the display in display device 140 . Image processing device 120 and input controller 150 may each be integrated into workstation 204, display device 140, or a combination thereof.

図3Aは、メディエイテッドリアリティシステム100において、術前画像170をリアルタイムにてキャプチャされた画像190とアライメントするために利用され得る、患者300に適用されたパッチ160の例示的な態様を例示する。態様にて、パッチ160は、患者の皮膚に適用され、患者の身体の輪郭に一致させることが可能である薄くしなやかな粘着性パッチを含む。パッチ160は、関係のある外科の処置に対して関心のある解剖学的構造(例えば、脊椎動物310)に最も近く置かれ得る。パッチ160は、異なる視点からおよび異なるライティング状態の下に見られるときでさえ、術前画像170およびリアルタイム画像190の両方において画像処理デバイス110によって一意的に識別されることが可能である3次元基準マーカー320のパターンを含み得る。例えば、基準マーカー320は、各々、認識可能な3次元ジオメトリを形成する1つまたは複数のふくらんだ表面を含み得る。態様にて、各マーカーは、パッチ160の特定の領域内において一意的であり得る。態様にて、パッチ160は、各々が唯一の3次元ジオメトリを有し、各々、術前画像170およびリアルタイム画像190において一意的に認識されることが可能であり、各々、人体における特定の位置に相関させることが可能である基準マーカーのグリッド(同じ形または同じではない形であり得る)を含む。基準マーカー320は、各々、超音波画像または放射線非透過性画像(radio opaque image)によって区別されることが可能である異なる密度の材料を含み得る。 FIG. 3A illustrates exemplary aspects of a patch 160 applied to a patient 300 that may be utilized in the mediated reality system 100 to align preoperative images 170 with images 190 captured in real time. In aspects, the patch 160 comprises a thin, flexible adhesive patch that can be applied to the patient's skin and conformed to the contours of the patient's body. Patch 160 may be placed closest to the anatomy (eg, vertebrate 310) of interest for the relevant surgical procedure. Patches 160 can be uniquely identified by image processing device 110 in both preoperative image 170 and real-time image 190, even when viewed from different perspectives and under different lighting conditions. A pattern of markers 320 may be included. For example, fiducial markers 320 may each include one or more raised surfaces that form a recognizable three-dimensional geometry. In aspects, each marker may be unique within a particular region of patch 160 . In an aspect, the patches 160 each have a unique three-dimensional geometry, are each uniquely recognizable in the pre-operative image 170 and the real-time image 190, and are each located at a particular location on the human body. It contains a grid of fiducial markers (which can be of the same or unequal shape) that can be correlated. The fiducial markers 320 may each comprise different densities of material that can be distinguished by ultrasound or radio opaque images.

態様にて、パッチ160は、穴をあけられた境界によって分離された断片に分割され得る。切り取り点線は、パッチ160の1つまたは複数の断片に、パッチ160全体を取り除くことなく、患者から容易に取り除かれることを可能にする。例えば、1つの使用例にて、外科医は、患者が手術のために置かれ、画像処理デバイス110が初期アライメント計算を実行した後に、望まれる切開のロケーションの上のパッチの断片を取り除くことがある。切開のロケーションの真上にないパッチ160の残りの断片は、所々に留まることがある。画像処理システム110は、アライメントを更新するために、動作全体を通して、パッチ160の残りの部分における基準マーカー320を検出し続けることがある。 In aspects, patch 160 may be divided into pieces separated by perforated boundaries. The perforations allow one or more pieces of patch 160 to be easily removed from the patient without removing the entire patch 160 . For example, in one use case, a surgeon may remove a piece of patch over the location of the desired incision after the patient is positioned for surgery and image processing device 110 performs initial alignment calculations. . Remaining pieces of patch 160 that are not directly over the location of the incision may remain in place. Image processing system 110 may continue to detect fiducial markers 320 in the remainder of patch 160 throughout operation to update the alignment.

図3Bは、パッチ160と統合され得る例示的な基準マーカー320の例示的な断面図を示す。例示されるように、基準マーカー320は、様々な3次元構造を有し、マーカー320に、リアルタイム画像190、術前画像170、およびポジショニング後画像180において互いから区別されることを可能にする様々な密度を含み得る。 FIG. 3B shows an exemplary cross-sectional view of an exemplary fiducial marker 320 that may be integrated with patch 160. FIG. As illustrated, fiducial markers 320 have various three-dimensional structures that allow markers 320 to be distinguished from each other in real-time image 190, pre-operative image 170, and post-positioning image 180. density.

図4は、リアルタイム画像190上にアライメントされ、オーバーレイされた術前画像170を用いて、手術部位のメディエイテッドリアリティビジュアライゼーションを生成するための処理の例示的な態様を例示する。画像処理デバイス110は、術前画像170を受信する402。画像処理デバイス110は、術前画像170における基準マーカーのロケーションに対応するそれぞれの3次元座標を特定する404。例えば、画像処理デバイス110は、術前画像170における基準マーカーを検出し、基準マーカーを、術前画像空間における人体のロケーションを表す3次元座標の第1のセットにマッピングする。例えば、画像処理デバイス110は、基準マーカーの一意的に認識可能な構造とパッチ160上のそれらの対応するロケーションとの間の予め定義されたマッピングを取得することがある。画像処理デバイス110は、カメラアレイ120によってキャプチャされたシーンのリアルタイム画像190を受信する406。画像処理デバイス110は、リアルタイム画像190における基準マーカーのロケーションに対応するそれぞれの3次元座標を特定する408。例えば、画像処理デバイス110は、リアルタイム画像190における基準マーカーを検出し、各基準マーカーを、リアルタイム画像空間における人体上のロケーションを表す3次元座標の第2のセットにマッピングする。次に、画像処理デバイス110は、術前画像170に1つまたは複数の変換を適用して410、術前画像170における基準マーカーのパターンをリアルタイム画像190におけるパターンに実質的にアライメントする。例えば、一態様にて、画像処理デバイス110は、最適化アルゴリズムを行って、術前画像170におけるパターンの変換された座標の間の距離を、リアルタイム画像190におけるパターンの対応する座標により最小化する変換を特定する。画像処理デバイス110は、変換された術前画像をリアルタイム画像にオーバーレイして412、メディエイテッドリアリティビューを生成する。次に、メディエイテッドリアリティビューは、表示のためにディスプレイデバイス140に提供される414。 FIG. 4 illustrates exemplary aspects of a process for generating a mediated reality visualization of a surgical site using pre-operative images 170 aligned and overlaid on real-time images 190 . The image processing device 110 receives 402 the pre-operative image 170 . Image processing device 110 identifies 404 respective three-dimensional coordinates corresponding to the locations of fiducial markers in preoperative image 170 . For example, image processing device 110 detects fiducial markers in preoperative image 170 and maps the fiducial markers to a first set of three-dimensional coordinates representing the location of the human body in preoperative image space. For example, image processing device 110 may obtain a predefined mapping between uniquely recognizable structures of fiducial markers and their corresponding locations on patch 160 . The image processing device 110 receives 406 real-time images 190 of the scene captured by the camera array 120 . Image processing device 110 identifies 408 respective three-dimensional coordinates corresponding to the locations of fiducial markers in real-time image 190 . For example, image processing device 110 detects fiducial markers in real-time image 190 and maps each fiducial marker to a second set of three-dimensional coordinates representing a location on the human body in real-time image space. Image processing device 110 then applies 410 one or more transformations to preoperative image 170 to substantially align the pattern of fiducial markers in preoperative image 170 with the pattern in real-time image 190 . For example, in one aspect, the image processing device 110 performs an optimization algorithm to minimize the distance between the transformed coordinates of the pattern in the preoperative image 170 with the corresponding coordinates of the pattern in the real-time image 190. Identify transformations. The image processing device 110 overlays 412 the transformed pre-operative image onto the real-time image to generate a mediated reality view. The mediated reality view is then provided 414 to the display device 140 for display.

図5は、患者が手術のために置かれた後にキャプチャされるポジショニング後画像180に、患者が手術のために置かれる前にキャプチャされる術前画像170をアライメントするための処理の態様を例示する。画像処理デバイス110は、術前画像170を受信する502。術前画像は、例えば、CTスキャン画像を含み得る。画像処理デバイス110は、患者が手術のために置かれた後にキャプチャされたポジショニング後画像180を受信する504。ポジショニング後画像180は、例えば、超音波画像または透視画像を含み得る。画像処理デバイス110は、術前画像170およびポジショニング後画像180の両方に見られる対応する特徴のセット(例えば、パッチ上の解剖学的特徴または基準マーカー)を特定する506。次に、画像処理デバイス110は、変換を術前画像170に適用して508、術前画像において対応する特徴のロケーションをポジショニング後画像180のロケーションに実質的にアライメントする。例えば、画像処理デバイス110は、平行移動、回転、曲げ、またはそれらの組み合わせを適用して、術前画像170における特徴の変換された座標の間の距離を、ポジショニング後画像180における対応する特徴の座標により最小化することがある。変換は、術前画像170をキャプチャすることと手術のために患者を置くこととの間に起こり得る解剖学的特徴の位置の変化を有益に補う。変換された術前画像170は、次に、カメラアレイ120によってキャプチャされたリアルタイム画像190にオーバーレイされ510、手術部位のメディエイテッドリアリティビューとして、表示のためにディスプレイデバイス140に提供され512得る。 FIG. 5 illustrates aspects of a process for aligning a pre-operative image 170 captured before the patient is positioned for surgery with a post-positioning image 180 captured after the patient is positioned for surgery. do. The image processing device 110 receives 502 the pre-operative image 170 . Preoperative images may include, for example, CT scan images. The image processing device 110 receives 504 a post-positioning image 180 captured after the patient has been positioned for surgery. Post-positioning image 180 may include, for example, an ultrasound image or a fluoroscopy image. Image processing device 110 identifies 506 corresponding sets of features (eg, anatomical features or fiducial markers on patches) found in both pre-operative image 170 and post-positioning image 180 . The image processing device 110 then applies 508 the transform to the pre-operative image 170 to substantially align the locations of the corresponding features in the pre-operative image with the locations of the post-positioning image 180 . For example, image processing device 110 may apply translations, rotations, bends, or a combination thereof to determine the distance between the transformed coordinates of features in pre-operative image 170 to that of corresponding features in post-positioning image 180 . May be minimized by coordinates. The transformation beneficially compensates for changes in the location of anatomical features that may occur between capturing the pre-operative image 170 and positioning the patient for surgery. The transformed pre-operative image 170 may then be overlaid 510 on the real-time image 190 captured by the camera array 120 and provided 512 to the display device 140 for display as a mediated reality view of the surgical site.

その上さらに別の態様にて、変換は、ポジショニング後画像180と、リアルタイム画像190において検出された基準マーカーとの両方に基づいて、術前画像170に適用され得る。例えば、一態様にて、第1の変換は、図5の処理にしたがって術前画像170に適用されて、最初の変換を取得する。第2の変換は、次に、図4の処理に従って適用されて、術前画像170およびリアルタイム画像190において検出された基準マーカーのパターンに基づいて、各画像フレームにおけるアライメントをリファインする。 In yet another aspect, transformations may be applied to pre-operative image 170 based on both post-positioning image 180 and fiducial markers detected in real-time image 190 . For example, in one aspect, a first transform is applied to pre-operative image 170 according to the process of FIG. 5 to obtain a first transform. A second transform is then applied according to the process of FIG. 4 to refine the alignment in each image frame based on the pattern of fiducial markers detected in the pre-operative image 170 and the real-time image 190 .

本開示を読むとすぐに、当業者は、本明細書の原理から開示されるように、開示された態様に対してさらに追加の代替えの構造的および機能的設計を理解するだろう。ゆえに、特定の態様および適用が例示され説明されたが、開示された態様は、本明細書に開示された正確な構造および構成要素に限定されないことが理解されるべきである。当業者には明らかである種々の修正、変更、および変形は、説明された態様の範囲から逸脱することなく、本明細書に開示される方法およびシステムの配置、操作、および詳細においてなされ得る。 Upon reading this disclosure, those skilled in the art will appreciate additional structural and functional design alternatives to the disclosed embodiments as disclosed in accordance with the principles herein. Thus, while specific embodiments and applications have been illustrated and described, it is to be understood that the disclosed embodiments are not limited to the precise structures and components disclosed herein. Various modifications, changes, and variations that are apparent to those skilled in the art may be made in the arrangement, operation, and details of the methods and systems disclosed herein without departing from the scope of the described aspects.

Claims (24)

手術部位のメディエイテッドリアリティビューをプロセッサーによって生成するための方法であって、
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることとであって、前記変換を適用することは、
最適化アルゴリズムを行って、前記術前画像おける前記基準マーカーのパターンの変換された座標の間の距離を、前記リアルタイム画像における前記パターンの前記座標により最小化する前記変換を特定すること
を含む、ことと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。
A method for generating a mediated reality view of a surgical site by a processor , comprising:
receiving by the processor a pre-operative image representing a three-dimensional anatomy of a patient in a first position;
Based on the preoperative image, the processor identifies coordinates in a three-dimensional preoperative image space corresponding to the locations of fiducial markers provided on the patch applied to the patient, the patch comprising: positioned on a patient's body, the fiducial marker being positioned over the patch ;
the processor receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
based on the real-time image, the processor identifies coordinates in a three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the preoperative image such that the processor aligns the location of the fiducial marker in the preoperative image with the location of the fiducial marker in the real-time image, wherein the transform is applied. to do
performing an optimization algorithm to identify the transformation that minimizes the distance between transformed coordinates of the pattern of fiducial markers in the preoperative image with the coordinates of the pattern in the real-time image. , and
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
and the processor providing the mediated reality view to a display device for display.
前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項1に記載の方法。 2. The method of claim 1, wherein the patch comprises a compliant adhesive patch placed closest to the anatomy of interest. 手術部位のメディエイテッドリアリティビューをプロセッサーによって生成するための方法であって、
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記基準マーカーは、1つまたは複数のふくらんだ表面を含む3次元構造を含み、前記基準マーカーの各々は、前記パッチにおける他の基準マーカーに関して一意的なジオメトリを有し、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。
A method for generating a mediated reality view of a surgical site by a processor , comprising:
receiving by the processor a pre-operative image representing a three-dimensional anatomy of a patient in a first position;
Based on the preoperative image, the processor identifies coordinates in a three-dimensional preoperative image space corresponding to locations of fiducial markers provided on the patient's applied patch, the fiducial markers comprising: a three-dimensional structure comprising one or more bulging surfaces, each of said fiducial markers having a unique geometry with respect to other fiducial markers in said patch, said patch resting on said patient's body; positioned, wherein the fiducial marker is positioned over the patch ;
the processor receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
based on the real-time image, the processor identifies coordinates in a three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
and the processor providing the mediated reality view to a display device for display.
前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項1に記載の方法。 2. The method of claim 1, wherein the fiducial markers are arranged in a grid on the patch. 手術部位のメディエイテッドリアリティビューをプロセッサーによって生成するための方法であって、
第1の位置における患者の3次元アナトミーを表す術前画像を前記プロセッサーが受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を前記プロセッサーが特定することであって、前記基準マーカーは、視覚的に区別できる異なる密度の材料を含み、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を前記プロセッサーが受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を前記プロセッサーが特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションを前記プロセッサーがアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを前記プロセッサーが生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを前記プロセッサーが提供することと
を備えることを特徴とする方法。
A method for generating a mediated reality view of a surgical site by a processor , comprising:
receiving by the processor a pre-operative image representing a three-dimensional anatomy of a patient in a first position;
Based on the preoperative image, the processor identifies coordinates in a three-dimensional preoperative image space corresponding to locations of fiducial markers provided on the patient's applied patch, the fiducial markers comprising: said patch comprising materials of visually distinguishable different densities , said patch being placed on said patient's body, said fiducial marker being placed on said patch ;
the processor receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
based on the real-time image, the processor identifies coordinates in a three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
and the processor providing the mediated reality view to a display device for display.
前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項1に記載の方法。 2. The method of claim 1, wherein the patch includes perforated borders for tearing the patch into pieces. 手術部位のメディエイテッドリアリティビューを生成するための命令を格納する非一時的なコンピューター読み取り可能記録媒体であって、前記命令は、プロセッサーによって実行されると、前記プロセッサーに、
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることとであって、前記変換を適用することは、
最適化アルゴリズムを行って、前記術前画像おける前記基準マーカーのパターンの変換された座標の間の距離を、前記リアルタイム画像における前記パターンの前記座標により最小化する前記変換を特定すること
を含む、ことと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。
A non-transitory computer readable recording medium storing instructions for generating a mediated reality view of a surgical site, the instructions, when executed by a processor, causing the processor to:
receiving a pre-operative image representing a three-dimensional anatomy of the patient in a first position;
identifying, based on the preoperative image, coordinates in three-dimensional preoperative image space corresponding to locations of fiducial markers provided on a patch applied to the patient, the patch being located on the patient's body; and the fiducial marker is positioned over the patch ;
receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
determining, based on the real-time image, coordinates in three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image, wherein applying the transform. teeth,
performing an optimization algorithm to identify the transformation that minimizes the distance between transformed coordinates of the pattern of fiducial markers in the preoperative image with the coordinates of the pattern in the real-time image. , and
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
providing the Mediated Reality View to a display device for display;
A non-transitory computer-readable recording medium characterized by causing a step comprising :
前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項3に記載の方法。 4. The method of claim 3, wherein the patch comprises a flexible adhesive patch placed closest to the anatomy of interest. 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項3に記載の方法。 4. The method of claim 3, wherein the fiducial markers are arranged in a grid on the patch. 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項3に記載の方法。 4. The method of claim 3, wherein the patch includes perforated borders for tearing the patch into pieces. 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項5に記載の方法。 6. The method of claim 5, wherein the patch comprises a flexible adhesive patch placed closest to the anatomy of interest. 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項5に記載の方法。 6. The method of claim 5, wherein the fiducial markers are arranged in a grid on the patch. 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項5に記載の方法。 6. The method of claim 5, wherein the patch includes perforated borders for tearing the patch into pieces. 前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項7に記載の非一時的なコンピューター読み取り可能記録媒体。 8. The non-transitory computer readable medium of claim 7, wherein said patch comprises a flexible adhesive patch placed closest to an anatomical structure of interest. 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項7に記載の非一時的なコンピューター読み取り可能記録媒体。 8. The non-transitory computer-readable medium of Claim 7, wherein the fiducial markers are arranged in a grid in the patch. 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項7に記載の非一時的なコンピューター読み取り可能記録媒体。 8. The non-transitory computer-readable medium of claim 7, wherein the patch includes a perforated border for tearing the patch into pieces. 手術部位のメディエイテッドリアリティビューを生成するための命令を格納する非一時的なコンピューター読み取り可能記録媒体であって、前記命令は、プロセッサーによって実行されると、前記プロセッサーに、
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記基準マーカーは、1つまたは複数のふくらんだ表面を含む3次元構造を含み、前記基準マーカーの各々は、前記パッチにおける他の基準マーカーに関して一意的なジオメトリを有し、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。
A non-transitory computer readable recording medium storing instructions for generating a mediated reality view of a surgical site, the instructions, when executed by a processor, causing the processor to:
receiving a pre-operative image representing a three-dimensional anatomy of the patient in a first position;
identifying, based on the preoperative image, coordinates in a three-dimensional preoperative image space corresponding to locations of fiducial markers provided on patches applied to the patient, wherein the fiducial markers are one or a three-dimensional structure comprising a plurality of bulging surfaces, each of said fiducial markers having a unique geometry with respect to other fiducial markers in said patch, said patch being positioned on said patient's body; wherein the fiducial marker is positioned over the patch ;
receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
determining, based on the real-time image, coordinates in three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
providing the Mediated Reality View to a display device for display;
A non-transitory computer-readable recording medium characterized by causing a step comprising :
前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項17に記載の非一時的なコンピューター読み取り可能記録媒体。 18. The non-transitory computer readable medium of claim 17, wherein said patch comprises a flexible adhesive patch placed closest to an anatomical structure of interest. 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項17に記載の非一時的なコンピューター読み取り可能記録媒体。 18. The non-transitory computer-readable medium of Claim 17, wherein the fiducial markers are arranged in a grid in the patch. 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項17に記載の非一時的なコンピューター読み取り可能記録媒体。 18. The non-transitory computer-readable medium of claim 17, wherein the patch includes a perforated border for tearing the patch into pieces. 手術部位のメディエイテッドリアリティビューを生成するための命令を格納する非一時的なコンピューター読み取り可能記録媒体であって、前記命令は、プロセッサーによって実行されると、前記プロセッサーに、
第1の位置における患者の3次元アナトミーを表す術前画像を受信することと、
前記術前画像に基づいて、前記患者に適用されたパッチに与えられた基準マーカーのロケーションに対応する3次元術前画像空間における座標を特定することであって、前記基準マーカーは、視覚的に区別できる異なる密度の材料を含み、前記パッチは、前記患者の身体の上に配置され、前記基準マーカーは、前記パッチの上に配置される、ことと、
前記患者が第2の位置に手術のために置かれた後にカメラアレイからリアルタイム画像を受信することと、
前記リアルタイム画像に基づいて、前記患者に適用された前記パッチに与えられた前記基準マーカーの前記ロケーションに対応する3次元リアルタイム画像空間における座標を特定することと、
前記術前画像に変換を適用して、前記リアルタイム画像における前記基準マーカーの前記ロケーションに、前記術前画像における前記基準マーカーの前記ロケーションをアライメントすることと、
前記変換された術前画像を前記リアルタイム画像にオーバーレイして、前記メディエイテッドリアリティビューを生成することと、
表示のためにディスプレイデバイスに前記メディエイテッドリアリティビューを提供することと
含むステップを行わせることを特徴とする非一時的なコンピューター読み取り可能記録媒体。
A non-transitory computer readable recording medium storing instructions for generating a mediated reality view of a surgical site, the instructions, when executed by a processor, causing the processor to:
receiving a pre-operative image representing a three-dimensional anatomy of the patient in a first position;
identifying, based on the preoperative image, coordinates in a three-dimensional preoperative image space corresponding to the location of fiducial markers provided on the patch applied to the patient, the fiducial markers visually said patch comprising materials of distinguishable different densities , said patch being placed on said patient's body and said fiducial marker being placed on said patch ;
receiving real-time images from a camera array after the patient has been placed for surgery at a second location;
determining, based on the real-time image, coordinates in three-dimensional real-time image space corresponding to the location of the fiducial marker provided on the patch applied to the patient;
applying a transform to the pre-operative image to align the location of the fiducial marker in the pre-operative image with the location of the fiducial marker in the real-time image;
overlaying the transformed pre-operative image onto the real-time image to generate the mediated reality view;
providing the Mediated Reality View to a display device for display;
A non-transitory computer-readable recording medium characterized by causing a step comprising :
前記パッチは、関心のある解剖学的構造に最も近く置かれるしなやかな粘着性パッチを含むことを特徴とする請求項21に記載の非一時的なコンピューター読み取り可能記録媒体。 22. The non-transitory computer readable medium of claim 21, wherein said patch comprises a flexible adhesive patch placed closest to an anatomical structure of interest. 前記基準マーカーは、前記パッチにおけるグリッドに配列されることを特徴とする請求項21に記載の非一時的なコンピューター読み取り可能記録媒体。 22. The non-transitory computer-readable medium of Claim 21, wherein the fiducial markers are arranged in a grid in the patch. 前記パッチは、前記パッチを断片に裂くための穴をあけられた境界を含むことを特徴とする請求項21に記載の非一時的なコンピューター読み取り可能記録媒体。 22. The non-transitory computer-readable medium of claim 21, wherein the patch includes a perforated border for tearing the patch into pieces.
JP2021542469A 2019-01-23 2020-01-22 Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site Active JP7138802B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962796065P 2019-01-23 2019-01-23
US62/796,065 2019-01-23
PCT/US2020/014674 WO2020154448A1 (en) 2019-01-23 2020-01-22 Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site

Publications (2)

Publication Number Publication Date
JP2022517132A JP2022517132A (en) 2022-03-04
JP7138802B2 true JP7138802B2 (en) 2022-09-16

Family

ID=71609486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542469A Active JP7138802B2 (en) 2019-01-23 2020-01-22 Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site

Country Status (5)

Country Link
US (3) US10912625B2 (en)
EP (1) EP3897346A4 (en)
JP (1) JP7138802B2 (en)
CA (1) CA3127605C (en)
WO (1) WO2020154448A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017114834A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
US20210153959A1 (en) * 2019-11-26 2021-05-27 Intuitive Surgical Operations, Inc. Physical medical element affixation systems, methods, and materials
US11295460B1 (en) 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
CA3226288A1 (en) * 2021-07-13 2023-01-19 Proprio, Inc. Methods and systems for displaying preoperative and intraoperative image data of a scene

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013531525A (en) 2010-06-13 2013-08-08 アンジオメトリックス コーポレーション Method and system for determining vessel lumen information and guiding a medical device
WO2014200017A1 (en) 2013-06-11 2014-12-18 Tanji Atsushi Bone cutting assistance system, information processing device, image processing method, and image processing program
JP2016539768A (en) 2013-11-11 2016-12-22 アエスキュラップ アーゲー Surgical reference device, surgical guidance system and method
WO2018195529A1 (en) 2017-04-21 2018-10-25 Samadani Uzma Using augmented reality in surgical navigation

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6990220B2 (en) * 2001-06-14 2006-01-24 Igo Technologies Inc. Apparatuses and methods for surgical navigation
US8126224B2 (en) * 2004-02-03 2012-02-28 Ge Medical Systems Global Technology Company, Llc Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images
US8165659B2 (en) * 2006-03-22 2012-04-24 Garrett Sheffer Modeling method and apparatus for use in surgical navigation
US20070238982A1 (en) * 2006-03-29 2007-10-11 Caylor Edward J Iii System and method for monitoring kinematic motion of a patient
US8108025B2 (en) * 2007-04-24 2012-01-31 Medtronic, Inc. Flexible array for use in navigated surgery
WO2009042155A2 (en) * 2007-09-24 2009-04-02 Surgivision, Inc. Mri-compatible patches and methods for using the same
JP5936687B2 (en) * 2011-07-18 2016-06-22 トムソン ライセンシングThomson Licensing Adaptive entropy coding method of tree structure
US20130249907A1 (en) * 2011-09-12 2013-09-26 Medical Modeling Inc., a Colorado Corporaiton Fiducial system to facilitate co-registration and image pixel calibration of multimodal data
US9314219B2 (en) * 2013-02-27 2016-04-19 Paul J Keall Method to estimate real-time rotation and translation of a target with a single x-ray imager
US20170042631A1 (en) * 2014-04-22 2017-02-16 Surgerati, Llc Intra-operative medical image viewing system and method
CA2949241A1 (en) * 2014-05-20 2015-11-26 University Of Washington Through Its Center For Commercialization Systems and methods for mediated-reality surgical visualization
US9734595B2 (en) * 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
CN107004044A (en) * 2014-11-18 2017-08-01 皇家飞利浦有限公司 The user guidance system and method for augmented reality equipment, use
EP3163536B1 (en) * 2015-10-30 2021-12-08 Dassault Systèmes Compression of a three-dimensional modeled object
JP2019534717A (en) * 2016-08-16 2019-12-05 インサイト メディカル システムズ インコーポレイテッド System for sensory enhancement in medical procedures
JP7012302B2 (en) * 2016-09-16 2022-01-28 インテリジェンスファクトリー合同会社 Surgery support terminals and programs
US20180092698A1 (en) * 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use
US11612307B2 (en) 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
KR20200015803A (en) * 2017-07-03 2020-02-12 스파인 얼라인, 엘엘씨 Alignment evaluation system and method during surgery

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013531525A (en) 2010-06-13 2013-08-08 アンジオメトリックス コーポレーション Method and system for determining vessel lumen information and guiding a medical device
WO2014200017A1 (en) 2013-06-11 2014-12-18 Tanji Atsushi Bone cutting assistance system, information processing device, image processing method, and image processing program
JP2016539768A (en) 2013-11-11 2016-12-22 アエスキュラップ アーゲー Surgical reference device, surgical guidance system and method
WO2018195529A1 (en) 2017-04-21 2018-10-25 Samadani Uzma Using augmented reality in surgical navigation

Also Published As

Publication number Publication date
JP2022517132A (en) 2022-03-04
US11376096B2 (en) 2022-07-05
EP3897346A4 (en) 2022-09-28
CA3127605A1 (en) 2020-07-30
EP3897346A1 (en) 2021-10-27
WO2020154448A1 (en) 2020-07-30
US20200375689A1 (en) 2020-12-03
CA3127605C (en) 2022-08-02
US20220265385A1 (en) 2022-08-25
US10912625B2 (en) 2021-02-09
US20200229893A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
JP7138802B2 (en) Alignment of Preoperative Scan Images to Real-Time Surgical Images for Mediated Reality Views of the Surgical Site
US10258427B2 (en) Mixed reality imaging apparatus and surgical suite
US11350072B1 (en) Augmented reality guidance for bone removal and osteotomies in spinal surgery including deformity correction
JP2023175709A (en) Registration for spatial tracking system and augmented reality display
US11896441B2 (en) Systems and methods for measuring a distance using a stereoscopic endoscope
CN113950301A (en) System for computer guided surgery
NL2022371B1 (en) Method and assembly for spatial mapping of a model of a surgical tool onto a spatial location of the surgical tool, as well as a surgical tool
CN113034700A (en) Anterior cruciate ligament reconstruction surgery navigation method and system based on mobile terminal
CN110638525B (en) Operation navigation system integrating augmented reality
JP6943884B2 (en) Hybrid X-ray / camera intervention motion compensation
JP6306532B2 (en) Three-dimensional data processing system, method, program, three-dimensional model, and three-dimensional model shaping apparatus
JP2019161558A (en) Organ tracking device, organ tracking method, and organ tracking program
US20230196595A1 (en) Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220906

R150 Certificate of patent or registration of utility model

Ref document number: 7138802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150