JP2022516472A - 部分的深度マップからの合成3次元撮像の発生 - Google Patents
部分的深度マップからの合成3次元撮像の発生 Download PDFInfo
- Publication number
- JP2022516472A JP2022516472A JP2021537826A JP2021537826A JP2022516472A JP 2022516472 A JP2022516472 A JP 2022516472A JP 2021537826 A JP2021537826 A JP 2021537826A JP 2021537826 A JP2021537826 A JP 2021537826A JP 2022516472 A JP2022516472 A JP 2022516472A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- computer program
- program product
- model
- various embodiments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 38
- 210000003484 anatomy Anatomy 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims description 83
- 238000004590 computer program Methods 0.000 claims description 34
- 230000003287 optical effect Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims 6
- 238000010586 diagram Methods 0.000 description 21
- 210000003734 kidney Anatomy 0.000 description 19
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000002357 laparoscopic surgery Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000000275 quality assurance Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 208000037062 Polyps Diseases 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000002432 robotic surgery Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002496 gastric effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 239000011165 3D composite Substances 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002512 chemotherapy Methods 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 238000002052 colonoscopy Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30084—Kidney; Renal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Endoscopes (AREA)
Abstract
Description
本願は、参照することによってその全体として本明細書に組み込まれる2018年12月28日に出願された米国仮特許出願第62/785,950号の利益を主張する。
Claims (78)
- 方法であって、前記方法は、
カメラから、患者の解剖学的構造の画像を受信することと、
深度センサから、前記画像に対応する深度マップを受信することと、
前記深度マップおよび前記画像に基づいて、前記解剖学的構造に対応する点群を発生させることと、
空間内で前記点群を回転させることと、
前記点群をレンダリングすることと、
前記レンダリングされた点群をユーザに表示することと
を含む、方法。 - 前記点群は、予備的な点群であり、前記方法は、
前記予備的な点群を前記解剖学的構造のモデルと位置合わせすることと、
前記予備的な点群と前記モデルとから拡張点群を発生させることと
をさらに含む、請求項1に記載の方法。 - 前記ユーザから、前記拡張点群をさらに回転させるための指示を受信することと、
前記指示に従って、空間内で前記拡張点群を回転させることと、
回転の後、前記拡張点群をレンダリングすることと、
前記レンダリングされた拡張点群を前記ユーザに表示することと
をさらに含む、請求項2に記載の方法。 - 前記カメラは、前記深度センサを備えている、請求項2に記載の方法。
- 前記カメラは、前記深度センサと別個である、請求項2に記載の方法。
- 前記深度センサは、構造光センサと、構造化光プロジェクタとを備えている、請求項5に記載の方法。
- 前記深度センサは、飛行時間センサを備えている、請求項5に記載の方法。
- 前記深度マップは、単一の画像フレームから決定される、請求項2に記載の方法。
- 前記深度マップは、2つ以上の画像フレームから決定される、請求項2に記載の方法。
- 前記予備的な点群から表面メッシュを発生させることをさらに含む、請求項2に記載の方法。
- 表面メッシュを発生させることは、前記予備的な点群を補間することを含む、請求項10に記載の方法。
- 補間することは、直接実施される、請求項11に記載の方法。
- 補間することは、グリッド上で実施される、請求項11に記載の方法。
- 補間することは、スプライン処理することを含む、請求項11に記載の方法。
- 表面メッシュを発生させることに先立って、前記予備的な点群を2つ以上の意味領域にセグメント化することをさらに含む、請求項10に記載の方法。
- 表面メッシュを発生させることは、前記2つ以上の意味領域の各々に関して別個の表面メッシュを発生させることを含む、請求項15に記載の方法。
- 前記別個の表面メッシュの各々を組み合わせられた表面メッシュに組み合わせることをさらに含む、請求項16に記載の方法。
- 前記組み合わせられた表面メッシュを前記ユーザに表示することをさらに含む、請求項17に記載の方法。
- 前記解剖学的構造のモデルは、仮想3Dモデルを備えている、請求項2に記載の方法。
- 前記解剖学的構造のモデルは、解剖学的図解書から決定される、請求項19に記載の方法。
- 前記解剖学的構造のモデルは、前記患者の術前撮像から決定される、請求項19に記載の方法。
- 前記解剖学的構造のモデルは、前記術前撮像からの3D再構築物である、請求項21に記載の方法。
- 前記術前撮像は、医療用画像管理システム(PACS)から読み出される、請求項21に記載の方法。
- 位置合わせすることは、変形可能な位置合わせを含む、請求項2に記載の方法。
- 位置合わせすることは、剛体位置合わせを含む、請求項2に記載の方法。
- 前記点群の中の各点は、前記深度マップから導出される深度値と、前記画像から導出される色値とを備えている、請求項1に記載の方法。
- システムであって、前記システムは、
体腔の内部を撮像するように構成されたデジタルカメラと、
ディスプレイと、
コンピュータ読み取り可能な記憶媒体を備えているコンピューティングノードと
を備え、
前記記憶媒体は、それを用いて具現化されたプログラム命令を有し、前記プログラム命令は、プロセッサに方法を実施させるように前記コンピューティングノードの前記プロセッサによって実行可能であり、前記方法は、
カメラから、患者の解剖学的構造の画像を受信することと、
カメラ深度センサから、前記画像に対応する深度マップを受信することと、
前記深度マップおよび前記画像に基づいて、前記解剖学的構造に対応する点群を発生させることと、
空間内で前記点群を回転させることと、
前記点群をレンダリングすることと、
前記レンダリングされた点群をユーザに表示することと
を含む、システム。 - 前記点群は、予備的な点群であり、前記方法は、
前記予備的な点群を前記解剖学的構造のモデルと位置合わせすることと、
前記予備的な点群と前記モデルとから拡張点群を発生させることと
をさらに含む、請求項27に記載のシステム。 - 前記方法は、
前記ユーザから、前記拡張点群をさらに回転させるための指示を受信することと、
前記指示に従って、空間内で前記拡張点群を回転させることと、
回転の後、前記拡張点群をレンダリングすることと、
前記レンダリングされた拡張点群を前記ユーザに表示することと
をさらに含む、請求項28に記載のシステム。 - 前記カメラは、前記深度センサを備えている、請求項28に記載のシステム。
- 前記カメラは、前記深度センサと別個である、請求項28に記載のシステム。
- 前記深度センサは、構造光センサと、構造化光プロジェクタとを備えている、請求項31に記載のシステム。
- 前記深度センサは、飛行時間センサを備えている、請求項31に記載のシステム。
- 前記深度マップは、単一の画像フレームから決定される、請求項28に記載のシステム。
- 前記深度マップは、2つ以上の画像フレームから決定される、請求項28に記載のシステム。
- 前記予備的な点群から表面メッシュを発生させることをさらに含む、請求項28に記載のシステム。
- 表面メッシュを発生させることは、前記予備的な点群を補間することを含む、請求項36に記載のシステム。
- 補間することは、直接実施される、請求項37に記載のシステム。
- 補間することは、グリッド上で実施される、請求項37に記載のシステム。
- 補間することは、スプライン処理することを含む、請求項37に記載のシステム。
- 表面メッシュを発生させることに先立って、前記予備的な点群を2つ以上の意味領域にセグメント化することをさらに含む、請求項36に記載のシステム。
- 表面メッシュを発生させることは、前記2つ以上の意味領域の各々に関して別個の表面メッシュを発生させることを含む、請求項41に記載のシステム。
- 前記別個の表面メッシュの各々を組み合わせられた表面メッシュに組み合わせることをさらに含む、請求項42に記載のシステム。
- 前記組み合わせられた表面メッシュを前記ユーザに表示することをさらに含む、請求項43に記載のシステム。
- 前記解剖学的構造のモデルは、仮想3Dモデルを備えている、請求項28に記載のシステム。
- 前記解剖学的構造のモデルは、解剖学的図解書から決定される、請求項45に記載のシステム。
- 前記解剖学的構造のモデルは、前記患者の術前撮像から決定される、請求項45に記載のシステム。
- 前記解剖学的構造のモデルは、前記術前撮像からの3D再構築物である、請求項47に記載のシステム。
- 前記術前撮像は、医療用画像管理システム(PACS)から読み出される、請求項47に記載のシステム。
- 位置合わせすることは、変形可能な位置合わせを含む、請求項28に記載のシステム。
- 位置合わせすることは、剛体位置合わせを含む、請求項28に記載のシステム。
- 前記点群の中の各点は、前記深度マップから導出される深度値と、前記画像から導出される色値とを備えている、請求項27に記載のシステム。
- 合成3次元撮像のためのコンピュータプログラム製品であって、前記コンピュータプログラム製品は、コンピュータ読み取り可能な記憶媒体を備え、前記記憶媒体は、それを用いて具現化されたプログラム命令を有し、前記プログラム命令は、プロセッサに方法を実施させるように前記プロセッサによって実行可能であり、前記方法は、
カメラから、解剖学的構造の画像を受信することと、
カメラ深度センサから、前記画像に対応する深度マップを受信することと、
前記深度マップおよび前記画像に基づいて、前記解剖学的構造に対応する点群を発生させることと、
空間内で前記点群を回転させることと、
前記点群をレンダリングすることと、
前記レンダリングされた点群をユーザに表示することと
を含む、コンピュータプログラム製品。 - 前記点群は、予備的な点群であり、前記方法は、
前記予備的な点群を前記解剖学的構造のモデルと位置合わせすることと、
前記予備的な点群と前記モデルとから拡張点群を発生させることと
をさらに含む、請求項53に記載のコンピュータプログラム製品。 - 前記方法は、
前記ユーザから、前記拡張点群をさらに回転させるための指示を受信することと、
前記指示に従って、空間内で前記拡張点群を回転させることと、
回転の後、前記拡張点群をレンダリングすることと、
前記レンダリングされた拡張点群を前記ユーザに表示することと
をさらに含む、請求項54に記載のコンピュータプログラム製品。 - 前記カメラは、前記深度センサを備えている、請求項54に記載のコンピュータプログラム製品。
- 前記カメラは、前記深度センサと別個である、請求項54に記載のコンピュータプログラム製品。
- 前記深度センサは、構造光センサと、構造化光プロジェクタとを備えている、請求項57に記載のコンピュータプログラム製品。
- 前記深度センサは、飛行時間センサを備えている、請求項57に記載のコンピュータプログラム製品。
- 前記深度マップは、単一の画像フレームから決定される、請求項54に記載のコンピュータプログラム製品。
- 前記深度マップは、2つ以上の画像フレームから決定される、請求項54に記載のコンピュータプログラム製品。
- 前記予備的な点群から表面メッシュを発生させることをさらに含む、請求項54に記載のコンピュータプログラム製品。
- 表面メッシュを発生させることは、前記予備的な点群を補間することを含む、請求項62に記載のコンピュータプログラム製品。
- 補間することは、直接実施される、請求項63に記載のコンピュータプログラム製品。
- 補間することは、グリッド上で実施される、請求項63に記載のコンピュータプログラム製品。
- 補間することは、スプライン処理することを含む、請求項63に記載のコンピュータプログラム製品。
- 表面メッシュを発生させることに先立って、前記予備的な点群を2つ以上の意味領域にセグメント化することをさらに含む、請求項62に記載のコンピュータプログラム製品。
- 表面メッシュを発生させることは、前記2つ以上の意味領域の各々に関して別個の表面メッシュを発生させることを含む、請求項67に記載のコンピュータプログラム製品。
- 前記別個の表面メッシュの各々を組み合わせられた表面メッシュに組み合わせることをさらに含む、請求項68に記載のコンピュータプログラム製品。
- 前記組み合わせられた表面メッシュを前記ユーザに表示することをさらに含む、請求項69に記載のコンピュータプログラム製品。
- 前記解剖学的構造のモデルは、仮想3Dモデルを備えている、請求項54に記載のコンピュータプログラム製品。
- 前記解剖学的構造のモデルは、解剖学的図解書から決定される、請求項71に記載のコンピュータプログラム製品。
- 前記解剖学的構造のモデルは、前記患者の術前撮像から決定される、請求項71に記載のコンピュータプログラム製品。
- 前記解剖学的構造のモデルは、前記術前撮像からの3D再構築物である、請求項73に記載のコンピュータプログラム製品。
- 前記術前撮像は、医療用画像管理システム(PACS)から読み出される、請求項73に記載のコンピュータプログラム製品。
- 位置合わせすることは、変形可能な位置合わせを含む、請求項54に記載のコンピュータプログラム製品。
- 位置合わせすることは、剛体位置合わせを含む、請求項54に記載のコンピュータプログラム製品。
- 前記点群の中の各点は、前記深度マップから導出される深度値と、前記画像から導出される色値とを備えている、請求項53に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862785950P | 2018-12-28 | 2018-12-28 | |
US62/785,950 | 2018-12-28 | ||
PCT/US2019/068760 WO2020140044A1 (en) | 2018-12-28 | 2019-12-27 | Generation of synthetic three-dimensional imaging from partial depth maps |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516472A true JP2022516472A (ja) | 2022-02-28 |
JPWO2020140044A5 JPWO2020140044A5 (ja) | 2023-01-05 |
Family
ID=71127363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537826A Pending JP2022516472A (ja) | 2018-12-28 | 2019-12-27 | 部分的深度マップからの合成3次元撮像の発生 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220012954A1 (ja) |
EP (1) | EP3903281A4 (ja) |
JP (1) | JP2022516472A (ja) |
KR (1) | KR20210146283A (ja) |
CN (1) | CN113906479A (ja) |
CA (1) | CA3125288A1 (ja) |
WO (1) | WO2020140044A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110192390A (zh) | 2016-11-24 | 2019-08-30 | 华盛顿大学 | 头戴式显示器的光场捕获和渲染 |
KR102545980B1 (ko) | 2018-07-19 | 2023-06-21 | 액티브 서지컬, 인크. | 자동화된 수술 로봇을 위한 비전 시스템에서 깊이의 다중 모달 감지를 위한 시스템 및 방법 |
US20220071711A1 (en) * | 2020-09-04 | 2022-03-10 | Karl Storz Se & Co. Kg | Devices, systems, and methods for identifying unexamined regions during a medical procedure |
CN113436211B (zh) * | 2021-08-03 | 2022-07-15 | 天津大学 | 一种基于深度学习的医学图像活动轮廓分割方法 |
WO2023081195A1 (en) * | 2021-11-02 | 2023-05-11 | Liveperson, Inc. | Automated decisioning based on predicted user intent |
WO2024077075A1 (en) * | 2022-10-04 | 2024-04-11 | Illuminant Surgical, Inc. | Systems for projection mapping and markerless registration for surgical navigation, and methods of use thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011151858A1 (ja) * | 2010-05-31 | 2011-12-08 | ビジュアツール株式会社 | 可視化用携帯端末装置、可視化プログラム及びボディ3d計測システム |
JP2016193144A (ja) * | 2015-04-01 | 2016-11-17 | オリンパス株式会社 | 内視鏡システムおよび計測方法 |
JP2017127623A (ja) * | 2016-01-15 | 2017-07-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US20180350073A1 (en) * | 2017-05-31 | 2018-12-06 | Proximie Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6879324B1 (en) * | 1998-07-14 | 2005-04-12 | Microsoft Corporation | Regional progressive meshes |
US20050253849A1 (en) * | 2004-05-13 | 2005-11-17 | Pixar | Custom spline interpolation |
KR101526866B1 (ko) * | 2009-01-21 | 2015-06-10 | 삼성전자주식회사 | 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치 |
US20150086956A1 (en) * | 2013-09-23 | 2015-03-26 | Eric Savitsky | System and method for co-registration and navigation of three-dimensional ultrasound and alternative radiographic data sets |
US9524582B2 (en) * | 2014-01-28 | 2016-12-20 | Siemens Healthcare Gmbh | Method and system for constructing personalized avatars using a parameterized deformable mesh |
KR101671649B1 (ko) * | 2014-12-22 | 2016-11-01 | 장석준 | 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템 |
WO2017058710A1 (en) * | 2015-09-28 | 2017-04-06 | Montefiore Medical Center | Methods and devices for intraoperative viewing of patient 3d surface images |
CN112386302A (zh) * | 2016-03-14 | 2021-02-23 | 穆罕默德·R·马赫福兹 | 用于无线超声跟踪和通信的超宽带定位 |
WO2017180097A1 (en) * | 2016-04-12 | 2017-10-19 | Siemens Aktiengesellschaft | Deformable registration of intra and preoperative inputs using generative mixture models and biomechanical deformation |
US10204448B2 (en) * | 2016-11-04 | 2019-02-12 | Aquifi, Inc. | System and method for portable active 3D scanning |
US10572720B2 (en) * | 2017-03-01 | 2020-02-25 | Sony Corporation | Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data |
CN108694740A (zh) * | 2017-03-06 | 2018-10-23 | 索尼公司 | 信息处理设备、信息处理方法以及用户设备 |
US11125861B2 (en) * | 2018-10-05 | 2021-09-21 | Zoox, Inc. | Mesh validation |
US10823855B2 (en) * | 2018-11-19 | 2020-11-03 | Fca Us Llc | Traffic recognition and adaptive ground removal based on LIDAR point cloud statistics |
-
2019
- 2019-12-27 CA CA3125288A patent/CA3125288A1/en active Pending
- 2019-12-27 CN CN201980093251.XA patent/CN113906479A/zh active Pending
- 2019-12-27 WO PCT/US2019/068760 patent/WO2020140044A1/en unknown
- 2019-12-27 EP EP19905077.4A patent/EP3903281A4/en active Pending
- 2019-12-27 KR KR1020217024095A patent/KR20210146283A/ko unknown
- 2019-12-27 JP JP2021537826A patent/JP2022516472A/ja active Pending
-
2021
- 2021-06-16 US US17/349,713 patent/US20220012954A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011151858A1 (ja) * | 2010-05-31 | 2011-12-08 | ビジュアツール株式会社 | 可視化用携帯端末装置、可視化プログラム及びボディ3d計測システム |
JP2016193144A (ja) * | 2015-04-01 | 2016-11-17 | オリンパス株式会社 | 内視鏡システムおよび計測方法 |
JP2017127623A (ja) * | 2016-01-15 | 2017-07-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US20180350073A1 (en) * | 2017-05-31 | 2018-12-06 | Proximie Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
Also Published As
Publication number | Publication date |
---|---|
CA3125288A1 (en) | 2020-07-02 |
EP3903281A1 (en) | 2021-11-03 |
EP3903281A4 (en) | 2022-09-07 |
WO2020140044A1 (en) | 2020-07-02 |
KR20210146283A (ko) | 2021-12-03 |
CN113906479A (zh) | 2022-01-07 |
US20220012954A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220012954A1 (en) | Generation of synthetic three-dimensional imaging from partial depth maps | |
US8090174B2 (en) | Virtual penetrating mirror device for visualizing virtual objects in angiographic applications | |
EP2883353B1 (en) | System and method of overlaying images of different modalities | |
JP5153620B2 (ja) | 連続的にガイドされる内視鏡と関係する画像を重ね合わせるためのシステム | |
EP2573735B1 (en) | Endoscopic image processing device, method and program | |
JP2006320722A (ja) | 対象領域の2d撮像の表示範囲の拡張方法 | |
CN110288653B (zh) | 一种多角度超声图像融合方法、系统及电子设备 | |
US20220215539A1 (en) | Composite medical imaging systems and methods | |
CN115298706A (zh) | 用于在将合成元素应用于原始图像期间掩蔽所识别的对象的系统和方法 | |
Dimas et al. | Endoscopic single-image size measurements | |
US9911225B2 (en) | Live capturing of light map image sequences for image-based lighting of medical data | |
Ben-Hamadou et al. | Construction of extended 3D field of views of the internal bladder wall surface: A proof of concept | |
US10631948B2 (en) | Image alignment device, method, and program | |
US11950947B2 (en) | Generation of composite images based on live images | |
US20220020160A1 (en) | User interface elements for orientation of remote camera during surgery | |
Shoji et al. | Camera motion tracking of real endoscope by using virtual endoscopy system and texture information | |
US10049480B2 (en) | Image alignment device, method, and program | |
Habert et al. | [POSTER] Augmenting Mobile C-arm Fluoroscopes via Stereo-RGBD Sensors for Multimodal Visualization | |
Eck et al. | Display technologies | |
Kumar et al. | Stereoscopic laparoscopy using depth information from 3D model | |
Westwood | Development of a 3D visualization system for surgical field deformation with geometric pattern projection | |
Chung | Calibration of Optical See-Through Head Mounted Display with Mobile C-arm for Visualization of Cone Beam CT Data | |
AU2022341233A1 (en) | Method of robust surface and depth estimation | |
JP2023004884A (ja) | 拡張現実のグラフィック表現を表示するための表現装置 | |
CN117198554A (zh) | 电子设备及远程协作系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231117 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240607 |