JP6987893B2 - 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法 - Google Patents

診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法 Download PDF

Info

Publication number
JP6987893B2
JP6987893B2 JP2019569660A JP2019569660A JP6987893B2 JP 6987893 B2 JP6987893 B2 JP 6987893B2 JP 2019569660 A JP2019569660 A JP 2019569660A JP 2019569660 A JP2019569660 A JP 2019569660A JP 6987893 B2 JP6987893 B2 JP 6987893B2
Authority
JP
Japan
Prior art keywords
medical
data
environment sensor
processor
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019569660A
Other languages
English (en)
Other versions
JP2020510511A (ja
JP2020510511A5 (ja
Inventor
ベイドゥン アラー
グプタ ヴィカシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Maryland Medical Center LLC
Original Assignee
University of Maryland Medical Center LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Maryland Medical Center LLC filed Critical University of Maryland Medical Center LLC
Publication of JP2020510511A publication Critical patent/JP2020510511A/ja
Publication of JP2020510511A5 publication Critical patent/JP2020510511A5/ja
Application granted granted Critical
Publication of JP6987893B2 publication Critical patent/JP6987893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B90/53Supports for surgical instruments, e.g. articulated arms connected to the surgeon's body, e.g. by a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • A61B2560/0247Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0487Special user inputs or interfaces
    • A61B2560/0493Special user inputs or interfaces controlled by voice
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Description

(関連出願の相互参照)本出願は、全体の内容を参照により本明細書に援用する、2017年3月3日付けの米国仮出願第62/466,689号の利益を主張する、非仮出願である。
本発明の実施形態は、全体として、医療診断および治療に関する技術の改善に関し、より詳細には、医療撮像デバイスに関する。
患者を支援する過程において、医療専門家は、患者に影響を及ぼす様々な病気および疾患の診断と治療を支援するための様々なデバイスに依存する。医療機器としては、現在のヘルスケア環境では、患者ケアを指示するのに医療従事者が解釈することができる生体パラメータの測定を可能にするデバイスが挙げられる。そのような生体パラメータとしては、血圧および心拍数などのバイタルサイン、身体およびその構造の画像、ならびに、電子カルテ(EMR)として知られる集中データベースに記憶され得る他の様々な生体パラメータを挙げることができる。
一般的に、診察を受ける患者は、最初に、様々な生体パラメータに関する情報を蓄積するか、または、患者の画像を生成するために診断試験を受け、それらの画像は次に、何らかの治療の前に調べるため、看護師、技術者、または医師に渡される。診断試験の間に生成される画像は、患者を悩ませているあらゆる痛みもしくは怪我を軽減または修復するのを助ける特定の処置を含む一連の治療を医療専門家が決定するのを支援するのに使用される。診断試験の例としては、放射線医学、核医学、超音波、および他の画像生成技術を挙げることができる。それに加えて、生体パラメータおよび画像は、直接接続された表示モニタおよび物理的プリントアウトを介した治療の間に提供されるサービスと同時に提供されてもよい。
したがって、本発明の実施形態は、診断試験をリアルタイム治療に統合するシステムおよび方法(すなわち、関連技術の制限および不利な点による1つまたは複数の問題を実質的に回避するリアルタイムの治療)を対象とする。
システムおよび方法は、医療専門家などのユーザに対して、コンテキスト的に適切なデータの表示をリアルタイムで提供するのを支援するために提供される。コンテキスト的に適切なデータの表示は、生体計測情報ならびに診断画像および他の画像として提示されてもよい。データが収集されている特定の設定にとってデータの表示が適切であるように医療専門家に対するデータの提示において環境情報が考慮されるように、データは収集され処理される。
本発明の更なる特徴および利点は、以下の記載において説明されるか、記載によって部分的に明白となるか、または本発明の実施によって学習されるであろう。本発明の目的および他の利点は、明細書および特許請求の範囲ならびに添付図面において特定して指摘される構造によって、実現され達成されるであろう。
これらおよび他の利点を達成するため、また具体化され概括的に記載されるような本発明の目的にしたがって、統合された診断試験およびリアルタイムの治療(すなわち、リアルタイム治療)は、データを収集すること、データをデータ変換デバイスに送信すること、データが収集された第1の環境を感知すること、データが表示される第2の環境を感知すること、少なくとも第2の環境に基づいてデータをコンテキスト変換すること、コンテキスト修正されたデータをデータ表示デバイスに送信すること、およびコンテキスト修正されたデータを表示することを含む、リアルタイムでデータを可視化するように構成された方法、システム、デバイス、およびコンピュータ可読媒体それぞれを含む。
更に、環境をデジタル的にマッピングし、解剖学的に正確なオーバーレイの形でコンテキスト修正されたデータを表示しながら領域を追跡することによって、更なる利点が提供されてもよい。この場合、オーバーレイは、無菌手術および処置野にあってもよい基準マーカおよび他の追跡可能なマーカを介して生成されるものとして具体化されてもよい。
本発明の更なる理解を提供するために含まれ、本明細書に組み込まれるとともに本明細書の一部を構成する添付図面は、本発明の実施形態を例示し、説明と併せて本発明の原理を説明するのに役立つ。
例示の実施形態による、汎用ストリーミング・デバイスに対する接続を示すフローチャートである。 例示の実施形態による、デバイスの構成要素を示すフローチャートである。 例示の実施形態による、様々なデータ点を含む例示の取得された画像フレームを示す図である。 例示の実施形態による、センサ・データ入力および取得データの修正を示す図である。 例示の実施形態による、基準マーカを使用する環境追跡を示す図である。 例示の実施形態による、専門家がシステムの一実施形態を使用しているところを示す図である。 例示の実施形態による、磁気ベースの自己整列基準マーカ・システムを示す図である。 例示の実施形態による、専門家が自己整列基準マーカを含むシステムの一実施形態を使用しているところを示す図である。
本発明の実施形態は、全体として、デバイスが、アナログもしくはデジタルの、任意の医療データ蓄積デバイスまたは撮像デバイスに接続できるようにし、低レイテンシ・エンコーダを使用したほぼリアルタイムの符号化ならびに取得されたデータおよび画像のストリーミング(例えば、画像のデータ・ストリーム)を可能にする、システムおよび方法を対象とする。医療蓄積デバイスは、任意のタイプの医療機器または医療ツールもしくはデバイスであることができる。実施形態は、医療撮像デバイスの任意のビデオ出力ポートまたは別の接続ポートに接続する、デバイスを含んでもよい。実施形態は、コンテキスト的に適切な画像を医療撮像デバイスから医療専門家に対してリアルタイムで(好ましくは医療処置の間に)提供するコーディングおよびプロセスを含んでもよい。
本発明は、標準的なポート、無線接続、または光学センサを通して、現代の医療で使用される標準的なデータ取得機器にリンクされ得るデバイスを具体化してもよい。デバイスは、かかる機器から関連データを取得し、低レイテンシ・プロセスで、様々なプロトコル(プロトコルは、Wi−Fi規格、Bluetooth、4G、または5Gを含むが、それらに限定されない)を通じて、この修正済みまたは未修正のデータを無線で送信する能力を有してもよい。低レイテンシとは、データ取得と標的の表示デバイス上での表示との間で測定して、250ms未満を意味する。例えば、実施形態は、全体として、閉じたローカル・ネットワーク(例えば、Wi−Fi、Bluetoothなど)を通じて無線で、または遠隔で、画像等のデータをストリーミングし得るシステムおよび方法を対象とする。デバイスは、少なくとも様々な医療撮像デバイスに対して汎用であって、使用される撮像デバイスの近傍でもそこから離れてでも画像を解釈できるように設計される。
それに加えて、デバイスは、ウェアラブル・ディスプレイ、例えばGoogle GlassまたはMicrosoft Hololensに対して画像をストリーミングして、従来のディスプレイを要することなく任意の医療画像または他のデータをストリーミングできるようにすることができる。
このデバイスは、CPU(中央処理装置)、GPU(画像処理装置)、および/またはカスタムASIC(特定用途向け集積回路)を含む、様々なマイクロプロセッサを用いてデータを処理する能力を含む。処理能力によって、低レイテンシ・ハードウェアに基づいたビデオ符号化(すなわち、低レイテンシ・エンコーダ、ファイル・トランスコーディング、暗号エンコーディング、および、三次元修正)が可能になる。デバイスはまた、無線アクセス・ポイントを含み、それによってこのデータを、WPA2、WPA、または他の符号化アルゴリズムなどの安全な接続を通じて送信することができる。
更に、デバイスは、接続される撮像機器を制御する中継器として構成されてもよい。デバイスは、例えば、ウェアラブル・ディスプレイに提供される音声および他のコマンドに応答するように構成されてもよく、アプリケーション・プログラム・インターフェース(API)は汎用デバイス上で動作し、APIは、デバイスが接続される撮像機器におけるデータ収集または撮像の設定を制御する。換言すれば、デバイスまたはシステムは、データが取得される医療デバイス(即ち診断ツールまたは撮像デバイス)に送信され得るコマンドの更新可能なライブラリを含んでもよい。これらのコマンドは、利用可能なAPIを通して、接続された機器の無線制御を可能にするように構成されてもよい。
システムの別の実施形態は、接続された機器をAPIを通して制御すること、ならびに、ウェアラブル・ユニットに送信する前に取得データを修正することの両方に利用することが可能なウェアラブル・デバイスまたは他の様々なセンサ・システムから、コマンドおよび/または他のデータ点を受信する能力を有してもよい。例えば、これによって、超音波またはコンピュータ断層撮影(CT)画像などのように、取得した画像データの三次元操作が可能になってもよく、これは、画像獲得中に直接患者の上で解剖学的に適正な場所に表示されることができ、患者の「体内」を見るような印象(例えば非侵襲的映像)を与えることが可能である。システムはまた、生理学的または画像データと、診察、治療、または処置中の患者のリアルタイム視界とのオーバーレイを可能にし、それにより、リアルタイムで実施されるソース画像(医療ソース画像としても知られる)のコンテキスト的な修正を提供してもよい。
基準マーカは、作成される画像に表れる、撮像システムの視野内に配置されるオブジェクトである。このマーカは、基準点または指標として使用されてもよい。一実施形態では、基準マーカは、患者上の特定の領域を追跡して、基準マーカと光学センサなどの外部センサ・データとの相関に基づいて、ソース機器データをコンテキスト修正することを可能にするのに使用されてもよい。
一実施形態では、診断のイメージングスキャンを受けている患者は、適所に設けられた基準マーカと共にスキャンを受けてもよく、そのため、これらの基準マーカは画像データに表れてもよい。一実施形態では、これらのマーカはまた、外部センサによって検出され、光学、レーザ、赤外線、磁気、または他の性質を含む1つもしくは複数の方法を使用して追跡されてもよい。外部センサ・データおよびソース機器データは、次に、プロセスによって実行される画像修正アルゴリズムを使用して互いに相関され、それにより、ソース画像のコンテキスト修正が可能にされてもよい。それに加えて、環境センサ・デバイスによって取得される環境センサ・データが、基準マーカをリアルタイムで追跡して、環境センサ・デバイスから取得したセンサ・データ(例えば、取得した環境センサ・データ)に基づいた、ソース画像のリアルタイムのコンテキスト修正を可能にしてもよい。
一実施形態では、基準マーカは、輪郭もしくはランドマーク、衣服もしくはドレープなどの固有のオーバーレイ・テクスチャ、光学パターンなどの固有の形状もしくはパターン、光源、磁界源、または他の検出可能なオブジェクトなど、スキャンされるオブジェクトの固有の特徴であってもよい。そのような場合、基準マーカの構造および/または機能は受動的もしくは能動的であってもよい。一実施形態では、基準マーカは単一の追跡可能な点を表してもよく、別の実施形態では、基準マーカは、複数の次元で追跡可能な1つまたは複数のベクトルを伝達してもよい。それに加えて、一実施形態では、基準マーカは最初のマーカ源を表してもよく、それにより、環境センサ・デバイスは、隣接した環境的特徴、構造、およびテクスチャをマッピングして、追跡した基準マーカの特性、サイズ、および精度を拡張してもよい。
画像誘導医療処置の状況によっては、基準マーカは、術野殺菌前のソース・データに含められ、術野殺菌後も視認可能であり環境追跡機器にとってアクセス可能である必要がある。それに加えて、基準マーカは、無菌術野/ドレープ上にオーバーレイされ、追跡されている間の対象に対して位置が固定のままであることが必要であり得る。このように、基準マーカは、術野の殺菌前後の両方において存在し、無菌性を損なうことなく無菌術野に含まれ、術野殺菌プロセスの前後でその位置が変化しないことが必要であり得る。
一実施形態では、自己整列性であって相補的に引き合う基準マーカが、画像誘導処置中における正確な環境追跡のこれらの必須構成要素を扱うのに使用されてもよい。かかる実施形態では、接着剤または非接着剤ベースの基準マーカが、最初のデータ獲得中に、撮像される対象の特定の部位に固着されてもよい。この基準マーカは、部位殺菌の間変化しない位置に留まり、無菌手術用ドレープを配置する間に覆われていてもよい。それに続いて、相補的な無菌基準マーカが、磁気的引力または電子的引力などの引力を使用して、ドレープを通して最初のマーカに付着されてもよい。これら2つの基準マーカは、互いに近付けると、それらの本質的な性質に基づいて自己整列してもよく、ドレープ上の基準マーカは、環境センサ機器によって追跡されて、非無菌マーカの正確な代理として作用してもよい。一実施形態では、周囲のドレープの構成およびテクスチャもマッピングされて、追跡可能な領域を拡張してもよい。他の実施形態では、複数の基準マーカが使用されてもよく、非無菌マーカが殺菌されてもよく、環境センサ機器は覆われたマーカを追跡することができてもよく、またはマーカ部位は殺菌後に正確に規定されてもよい。
別の実施形態では、追加の追跡可能なマーカが配置されて、追跡可能な領域を拡張してもよい。これら追加のマーカと最初に配置されたマーカとの関係は、追跡可能な術野を拡張するため、および/または、コンテキスト的な画像修正のための追加の基準点を提供するため、外挿されてもよい。このように、追加の追跡可能な点は、元々配置された1つまたは複数の基準マーカが環境センサによって十分に追跡可能でない場合に使用されてもよい。
データ取得デバイスから、取得データ符号化は、レイテンシを最小限に抑えるためにハードウェアで加速されてもよい。低レイテンシは、データ・ソース機器で取られた画像(例えば、ソース画像)のリアルタイムの解釈を提供するために重要である。デバイスは、特に無線ネットワークを通じて、任意の超低レイテンシのストリーミング・アプリケーションで利用するようにデバイスを適合されるように、堅牢に設計される。
実施形態は、例えば、放射線診断、画像下治療、画像誘導手術、核医学、超音波、超音波検査などを含む、様々な医療技術に適用されてもよい。放射線診断は、疾病の診断を支援するのに様々なイメージングモダリティを使用することと関係がある。放射線診断は、X線医学、他の放射線デバイス、ならびに放射線が関与しなくてもよい磁気共鳴画像法(MRI)および超音波などの技術を使用してもよい。画像下治療は、カテーテル、ワイヤ、コイル、プローブ、または他の適切な機器などのツールを使用する医療介入および処置を誘導するのに、医療画像データを使用することと関係がある。
核医学は、疾病の診断および治療において放射性物質の適用が関与する医学専門分野である。放射性物質は、様々な疾病の診断および治療を助けるトレーサーとして機能する。核医学には、外部ソースによって生成される放射線ではなく、体内から放出される放射線を記録することが関与する。核医学によって、器官、組織、または骨の機能に基づいて、医学的問題の原因を決定することが可能になるが、X線、超音波、または他の診断試験は、構造的な見た目に基づいて疾病の存在を判断する。
超音波、または超音波検査には、体内構造を含む身体の内部を見るのに、音波を使用することが関与する。超音波は、身体内部の器官の腫脹および感染を観察すること、妊婦の体内の胎児を検査すること、ならびに誘導下生検、心臓の状態の診断、および心臓発作後の損傷の評価を助けることに、最も多く使用される。
医療専門家が専門の作業を行うのを支援するのに使用されるデバイスの中で、撮像デバイスはより重要になってきており、患者の外表皮膚の深部の解剖学的構造および生理機能に関する情報を提供するのに使用される。換言すれば、撮像デバイスによって、医師および他の医療専門家は、侵襲的外科手術を要することなく、患者の体内を見ることが可能になる。
上述したように、患者から収集したヘルスケア情報は、EMRとして記憶されることに加えて、印刷されるか、またはこれらのデータ収集デバイスに配線され直接接続されたモニタ上に表示されてもよい。情報が医療専門家にとって有用であるためには、即ちこの情報を解釈するには、医療従事者とプリントアウトまたは表示モニタとの間に直接の見通し線がなければならない。かかる要件は、情報の有用性と、診断または治療に役立つためのデバイスの配置とを限定することがある。多くのヘルスケア環境では、医療従事者は、直接注意を払う必要がある全ての関連情報を見るために、自身の焦点範囲を常に変化させ、自身の見通し線を調節するのが必要であり得る。かかる要件は、進行中の外科処置中に収集される情報の場合など、厄介であるかまたは場合によっては安全でないことがある。
場合によっては、医療機器は、収集されたデータがすぐに利用可能である場合にのみ有用である。例えば、超音波誘導処置を実施し、それによって施術者が患者の体内における病変の生検を標的とする場合、施術者は、生体構造が損傷していないことを確認するため、自身の針または生検デバイスの先端の位置を常に知っていなければならない。そのため、このデータのリアルタイム解釈に必須の要素は、施術者にとってのリアルタイムの利用可能性である。
本発明の実施形態は、全体として、標準的なデータ・ソース機器にリンクされたデバイス、方法、およびシステムを対象とする。標準的なデータ・ソース機器としては、超音波、血管造影、X線透視、光ファイバ、コンピュータ断層撮影、および磁気共鳴画像法の機械などの医療機器が挙げられるが、それらに限定されない。本発明の実施形態は、標準的なポートを通してソース機器に物理的に取り付けられた医療機器、無線接続、および光学センサなど、データ・ソース機器と相互作用するように構成されたデバイスが挙げられる。標準的なポートとしては、USB、HDMI、DVI、ディスプレイ・ポート、VGA、コンポーネント、コンポジット、およびS−ビデオ・ポートなどを挙げることができるが、それらに限定されない。データ・ソース機器の標準的なデータ出力ポートは、一実施形態に直接接続されてもよく、その実施形態は、アナログおよびデジタル・ソースからデータを取得し、低レイテンシ(即ち、<250ms)で、元の形態もしくは修正された形態(例えば暗号化された形態)のどちらかで、データを無線で送信するように構成される。データの送信は、802.11a、802.11b、802.11n、802.11ac、および802.11adなどのWi−Fi規格、Bluetooth、ならびに4Gまたは5Gネットワークを含む、無線プロトコルを通じて行ってもよい。データの送信は、パケット交換プロトコル、例えばユーザ・データ・プロトコル(UDP)または送信制御プロトコル(TCP)を使用して、実施されてもよい。
一実施形態では、システムは、ソース機器から取得したデータのデータ・マイニングを可能にするコンピュータ視覚および/または光学文字認識(OCR)アルゴリズムを含んでもよい。例えば、超音波機械から取得するとき、システムは、患者の名前、他の識別情報、画像獲得パラメータ、および/または他のテキスト・オーバーレイ情報など、取得したソース画像中に埋め込まれたデータ点を抽出してもよい。
デバイスの一実施形態は、低レイテンシでのデータの送信を提供する。低レイテンシは、データ取得から標的の表示デバイス上での表示までで測定して、250ms未満であると近似的に見なされる。医療専門家は、ほぼリアルタイムのデータが安全で有効な治療を提供できることを必要とすることがあるので、低レイテンシは適用の重要な態様である。このデータの低レイテンシの取得および送信を確保するため、このデバイス/システムは、少なくともCPU(中央処理装置)、GPU(画像処理装置)、および/または様々なASIC(特定用途向け集積回路)の構成要素を使用することによるマイクロプロセシング能力を含む。これらの構成要素は、共に働いて、安全な無線接続を通じた送信の前に、データの低レイテンシのハードウェア符号化および/またはトランスコーディングを提供するように構成される。それに加えて、GPUおよび/またはASICシステムを使用することによって、獲得したデータは、様々な環境センサからの入力に基づいて、様々な形式で表示されるように修正されてもよい。
このデータを送信するため、システムは、WPA、WPA2、または他の符号化アルゴリズムなどのプロトコルを使用して、安全な接続を通じて無線でデータを送信するのを容易にする、無線アクセス・ポイントを含んでもよい。データは、デバイスがローカル・エリア・ネットワーク(LAN)上または広域ネットワーク(WAN)上にある状態で、送信されてもよい。LANシステムは、符号化データがアクセス・ポイントの範囲を超えて送信されないので、機密情報、例えば個人の健康情報(PHI)の送信にとって好ましいことがある。それに加えて、WANシステムは、インターネットを介したデータの遠隔送信に利用されてもよく、広範囲のテレプレゼンスまたは遠隔医療の能力を促進してもよい。WiFiプロトコルとは別に、更なる無線ストリーミングの解決策は、Bluetooth規格または他の潜在的な規格によって規定されるような、他の高周波ベースの無線送信プロトコルを含んでもよい。
それに加えて、一実施形態では、システムは、データが取得される機器に送信されてもよいコマンドのライブラリを含んでもよい。ライブラリは、インターネットへの無線接続を介して、またはデバイス上で局所的に実行されるパッチを使用して更新されてもよい。システムは、転送されるソース・データ・ソースのタイプを自動的に検出するように構成されてもよい。システムはまた、転送されるソース・データのタイプに基づいて、ライブラリから適切なAPIを選択するように構成されてもよい。一実施形態では、自動選択の代わりに、またはそれに加えて、適切なAPIの手動選択が実施されてもよい。
ライブラリは、利用可能な特定のアプリケーション・プログラミング・インテグレーション(API)を通して、接続された機器の無線制御を可能にするように構成される。例えば、例示の一実施形態では、ユーザは、音声コマンド、物理的ジェスチャ、または他の適切な方法を使用して、任意の数のコマンドをシステムに提示してもよい。次いで、コマンドは、システムによって解釈され、データが取得されるデバイスに中継されてもよい。次いで、コマンドによって、システムは、ユーザが意図するようにデータ獲得パラメータを変更する。
一実施形態では、APIシステムを使用して、第三者デバイスがシステムと通信する。APIシステムは、デバイスのタイプ、ブランド、ファイル・タイプもしくは他のパラメータに基づいて第三者デバイスに合わせてカスタマイズ可能であってもよく、入力コマンド(音声、ジェスチャ、アイ・トラッキング、キーボード、マウス、もしくはトラックパッドなど)および環境センサ・データ(例えば取得したセンサ・データ(ジャイロセンサ、加速度計、レーザ測位システム、磁力計、および/もしくは光学カメラによって獲得されるものなど))を含む(但し、それらに限定されない)様々なコマンドおよび/または環境パラメータの送信および利用を可能にする。コマンドは、システムおよび/またはデータ・ソース機器の制御を可能にするように構成されてもよい。それに加えて、環境センサ・データは、ソース・データをコンテキスト修正するために、システムによって統合され解釈されてもよい。コンテキスト修正は、送信の前にシステムによって行われてもよい。送信デバイスによって送られた送信データは、次に、ウェアラブル・ユニットに送られるか、または別の方法で医療専門家などのユーザに対して表示されてもよい。
例えば、一実現例では、ユーザは、針生検デバイスを使用して患者の肝臓内の部分の生検を標的とするために、超音波ソース・デバイスを使用しながら、カメラ、アイ・トラッカ、および/または測位センサなどのセンサを含むウェアラブル表示デバイスを利用する。この例では、超音波ソース機械は、システムが超音波機械からの画像を取得できるように、有線接続を通じてシステムに接続される。システムは、HIPAA(医療保険の携行と責任に関する法律)に準拠して取得した超音波画像をウェアラブル・デバイスへと低レイテンシで送信することを可能にするように、安全な接続を通じてウェアラブル表示デバイスに無線で接続される。それに加えて、システムは、ウェアラブル・デバイスからの環境センサ・データに基づいて、取得した超音波ソース・データを三次元的に修正してもよい。次に、ソース・データの三次元的修正は、生検デバイスの経路も投影しながら、解剖学的精度を伴って患者の上に直接低レイテンシの投影を作成する。代替例では、低レイテンシの送信は、患者の上に投影するのではなく、ウェアラブル・デバイスを使用して視認可能とされてもよい。それに加えて、音声コマンドおよびジェスチャ制御によって、システムは、ユーザが、コンソール上のボタンを物理的に押す必要なしに、超音波ソース・デバイスの獲得パラメータを無線で変更することを可能にするように構成されてもよい。
図1は、例示の実施形態による、汎用ストリーミング・デバイスに対する接続のフローチャートを示している。
図1に示されるように、例示の実施形態によるシステム100のフロー図が示されている。システム100は、プロセッサおよびメモリなどのシステム100の様々な構成要素間での情報を通信するように構成されたバスおよび/または他の通信メカニズムを含むコンピュータ・コンポーネントを含んでもよい。それに加えて、通信デバイスは、ネットワーク(図示なし)を通じてプロセッサから別のデバイスに送られるデータを符号化し、ネットワークを通じて別のシステムからプロセッサに受信したデータを復号することによって、プロセッサと他のデバイスとの間の接続性を可能にしてもよい。
システム100は、一実施形態による汎用ストリーミング・デバイス101への接続を含んでもよい。データ・ソース機器102は、例えば患者から、データを蓄積するように構成される。データ・ソース機器102はポート105を含んでもよく、ポート105を介して、一実施形態による汎用ストリーミング・デバイス101が、データ・ソース機器102に接続されてもよい。ポート105は、USB、HDMI、DVI、Displayport、VGA、コンポーネント、コンポジット、S−ビデオ、または他の入出力ポートであってもよい。
一実施形態では、データ・ソース機器102は、汎用ストリーミング・デバイス101に物理的に接続されてもよい。代替実施形態では、データ・ソース機器102は、汎用ストリーミング・デバイス101に無線で接続されてもよい。システム100はまた、表示デバイス103を含んでもよく、データ・ソース機器102によって収集されたデータが表示デバイス103に表示されてもよい。表示デバイス103は、一実施形態では、汎用ストリーミング・デバイス101に物理的に接続されてもよい。別の実施形態では、表示デバイス103は、汎用ストリーミング・デバイス101に無線で接続されてもよい。汎用ストリーミング・デバイス101とウェアラブルであってもよい表示デバイス103との間の接続107は、有線または無線であってもよい。
表示デバイス103は、生体計測もしくは他のデータ、または収集したデータからアセンブルされた画像を表示するように構成された、表示モニタであってもよい。一実施形態では、表示デバイスは、データまたはデータから生成された画像を表示するウェアラブル・デバイスであってもよい。表示デバイスはまた、データまたはデータからアセンブルされた画像を提示する複数のデバイスであってもよい。表示デバイス103は、データまたはデータからアセンブルされた画像を二次元で、三次元で、ワイヤ・フレームとして、または患者の上のオーバーレイとして表示するように構成されてもよい。表示デバイス103は、患者の記録からなど、既存のデータまたは画像を統合するように構成されてもよい。
一実施形態では、表示デバイス103はまた、少なくとも環境センサ104からの情報を統合してもよい。環境センサ104は、ジャイロセンサ、加速度計、レーザ測位システム、磁力計、光学センサ、または、データ蓄積もしくは撮像の対象の周りの環境を調査し測定するように構成された他のデバイスであってもよく、対象は、例えば、環境中で追跡されている患者または別のオブジェクトである。環境センサ104は、有線または無線である接続108を有してもよい。一実施形態では、表示デバイス103は、統合された環境センサ104と共に構成されてもよい。
一実施形態では、汎用ストリーミング・デバイス101および表示デバイス103は、ウェアラブル・デバイスを使用して、ユーザが見ている環境を、データ・ソース機器102によって収集されているデータと統合するように構成される。表示デバイス103は、データおよび画像がウェアラブル・デバイスを介してユーザに対して表示されている状態で、ユーザが対象(即ち患者)をはっきり見ることを可能にするように構成される。したがって、ユーザは、患者を同時に外部から見ながら、対象の内部にあるかまたは対象内へと進入しているかのように重ね合わされた生態計測データおよび画像を見ることができる。
一実施形態では、表示デバイス103は画像を投影するように構成されてもよい。表示デバイス103は、画像をユーザの視野内の表面上に投影するように構成されてもよい。例えば、表示デバイスは、データ・ソース機器102および環境センサ104からデータを受信して、ユーザの視線方向を認識し、データまたは画像を視線方向で表面上に投影してもよい。例えば、表示デバイス103は、壁、床、または適切な別の場所の上に投影を方向付けるように構成されてもよい。一実施形態では、表示デバイス103は、検査されている対象、または、それに関するデータが蓄積されている対象の身体上に、画像を投影するように構成されてもよい。
一実施形態では、表示デバイス103は、ウェアラブル・デバイスの着用者のみに見えるようにデータおよび画像を表示するように構成されてもよい。そのようなウェアラブル・デバイスは、一対の透明レンズまたは他の光学デバイスとして具体化されてもよい。例えば、一実施形態では、表示デバイス103は、ウェアラブル・デバイスのユーザが、周囲環境を、ウェアラブル・デバイスを通して見える周囲環境上に重ね合わされたデータまたは画像と共に見ることができるように、データもしくは画像(または両方)をウェアラブル・デバイスの内表面上に重畳するように構成される。
一実施形態では、システム100は、ヒューマン・コンピュータ・インターフェース(HCI)から、有線または無線でHCI入力ポート109を通して、入力を受信するように構成されてもよい。かかるHCIは、キーボードおよびマウス、タッチパッド、または他の任意のタイプのHCIを含んでもよい。一実施形態では、表示デバイス103は、様々なユーザ・コマンドの解釈を可能にするHCIと共に構成されてもよい。これらのコマンドとしては、手のジェスチャ、音声コマンド、および/またはアイ・トラッキングを挙げることができるがそれらに限定されない。かかる実施形態では、ユーザは、表示デバイス103を通して提示されるコマンドを使用して、システム100の様々なパラメータを直接制御することができてもよい。
それに加えて、一実施形態では、データ・ソース機器102は、データ・ソース機器102へのデータ入力を受容するように構成されたポート106を有してもよい。ポート106は、ポート105とは別個の分離されたポートであってもよい。一実施形態では、ポート106はポート105と共通のポートであってもよい。ポート106は、データ・ソース機器102に対する制御コマンドを含んでもよい、データを受容するように構成されてもよい。一実施形態では、HCI入力は、HCIの入力ポート109およびポート106を利用して、汎用ストリーミング・デバイス101を介してデータ・ソース機器102に渡されてもよい。かかる実施形態では、表示デバイス103は、データ・ソース機器102内の様々なデータ獲得パラメータを制御するのに、HCIとして使用されてもよい。
図2は、例示の実施形態による、汎用ストリーミング・デバイス101の構成要素のフローチャートを示している。
図2に示されるように、ストリーミング・デバイス201を含むシステム200が示される。ストリーミング・デバイス201は、デバイス・メモリ202を含むように構成されてもよい。一実施形態では、デバイス・メモリ202は、上述したようなデータ・ソース機器102を制御するように構成されて得るAPIのライブラリ203を含んでもよい。ストリーミング・デバイス201のデバイス・メモリ202はまた、様々なセンサ・データの入力を可能にするように構成されたAPI204を含んでもよい。API204は、様々なHCIコマンドの入力を可能にするように構成されてもよい。一実施形態では、ストリーミング・デバイス201は送信コンポーネント205を含んでもよい。一実施形態では、送信コンポーネント205は有線送信コンポーネントとして構成されてもよい。一実施形態では、送信コンポーネント205は無線送信コンポーネントとして構成されてもよい。
一実施形態では、ストリーミング・デバイス201は、マイクロプロセッサ・システムであってもよいプロセッサ・システム206を含んでもよい。プロセッサ・システム206は、CPU、GPU、ASICSを含む構成要素、および適切であれば他の構成要素を含んでもよい。一実施形態では、デバイス・メモリ202は、接続207を介してデータ・ソース機器102からデータを受信するように構成されてもよい。一実施形態では、デバイス・メモリ202は、接続208を介してデータ・ソース機器102にデータを送信するように構成されてもよい。
一実施形態では、送信コンポーネント205は、接続209を介して環境センサ104からデータを受信するように構成されてもよい。一実施形態では、送信コンポーネント205は、接続210を介して表示デバイス103にデータを送信するように構成されてもよい。一実施形態では、送信コンポーネント205は、接続215を介してHCI入力データを受信するように構成されてもよい。それに加えて、送信コンポーネント205は、入力および出力接続211、212によってデバイス・メモリ202に接続されてもよい。プロセッサ・システム206は、入力および出力接続213、214によってデバイス・メモリ202に接続されてもよい。
図3は、例示の実施形態による、様々なデータ点を含む例示の取得画像フレーム300の図である。
図3に示されるように、例示の取得画像フレームは、汎用ストリーミング・デバイス101が抽出するように構成され得る様々なデータ点を含んでもよい。OCRまたはコンピュータ・ビジョン・アルゴリズムは、患者識別情報301、画像獲得パラメータ302、測定情報304、または他のテキスト・オーバーレイ情報305を特定し抽出してもよい。一実施形態では、汎用ストリーミング・デバイス101はまた、医療画像303のコンピュータ支援検出(CAD)を可能にするコンピュータ・ビジョン・アルゴリズムを有して構成されてもよい。
図4は、例示の実施形態によるセンサ・データ入力および取得データの修正の図である。
図4に示されるように、データ取得のシステム400が示される。一実施形態では、メモリ・コンポーネント402は、入力405を介してメモリ・コンポーネント402に提供されるソース・データを記憶するように構成されてもよい。一実施形態では、メモリ・コンポーネント402は、接続406を介してメモリ・コンポーネント402に提供される環境データを記憶するように構成されてもよい。メモリ・コンポーネント402はまた、未加工または修正済みのデータをエクスポートするように構成された出力407を有してもよい。メモリ・コンポーネント402は出力407を含んでもよく、出力407を通してデータが出力デバイスに送られて、データおよび画像がシステム400のユーザに利用可能にされてもよい。
一実施形態では、メモリ・コンポーネント402は更に、出力408および入力409を通してデータが適切に低レイテンシで送信されることを確実にするように構成された構成要素を含むマイクロプロセシング・アレイ404に接続されてもよい。一実施形態では、マイクロプロセシング・アレイ404は、入力405および接続406からメモリ・コンポーネント402に入ってくるデータを分析する構成要素を含んでもよい。マイクロプロセシング・アレイ404は、デバイス401がコンテキスト化された出力を出力407を通してユーザに提供し得るように、メモリ・コンポーネント402に入力されるデータを分析し解釈してもよい。マイクロプロセシング・アレイは、出力407を介してユーザに出力されるデータがデバイス401を使用するユーザが面する環境および状況に対して適切にコンテキスト化されるように、デバイス401に入力されるデータを修正する少なくとも第1のAPIを含んでもよい。図5は、例示の実施形態による、環境および要素の追跡を実証する例示の図である。図5に示されるように、追跡要素501は、データ・ソース機器503の追跡可能なコンポーネント502に固定されてもよい。この追跡要素、即ち基準マーカは、外部の環境センサ504を用いて、または、専門家506が着用し得る表示デバイス505に埋め込まれたセンサを用いて、追跡されてもよい。
図6は、例示の実施形態による、専門家がシステムの一実施形態を使用しているところの図である。
図6に示されるようにシステム600が示され、医療専門家または他のユーザ610が、追跡可能な要素616(ここでは、超音波デバイスとして具体化されている)を用いて一個のデータ・ソース機器602を扱うのにシステム600は用いられる。データ・ソース機器602はコンピュータ・コンポーネント603に接続され、コンピュータ・コンポーネント603はプロセッサ、バス、メモリ、およびAPIなどのアルゴリズムを含んでもよい。コンピュータ・コンポーネント603は、コンピュータ・モニタなどのディスプレイに接続されてもよい。ユーザ610はまた、ウェアラブル・デバイス611を使用してもよい。デバイス601によってコンピュータ・コンポーネント603から取得されたデータは、修正済みまたは未修正のデータとして、表示デバイス611に送信されてもよい。データは、環境センサ614のデータ、ならびに、例えば図3によって概説したような取得したデータから抽出されたデータ点を利用して、コンテキスト的に適切な形で表示されるものとして修正されてもよい。一実施形態では、追跡可能な要素605は、コンピュータ・コンポーネント603によって組み込まれ得るとともにユーザ610に対して表示され得るデータを提供してもよい。追跡可能な要素605は、ウェアラブル要素(図示されるような)として、または、センサとして具体化されてもよく、あるいは、データ・ソース機器602の一部として組み込まれてもよい。このように、ユーザ610は、本発明の一実施形態にしたがってデバイス601によって提供されるコンテキスト化されるかまたはコンテキスト修正されたソース画像を見てもよい。コンテキスト修正された画像およびコンテキスト修正されたソース画像は、テキスト、アイコン、図形、または他の任意の画像タイプを含むことができる。画像はいかなる形でも限定的であることを意味しない。
一実施形態では、ウェアラブル・デバイス611は、ウェアラブル・デバイス611内で、ユーザ610が見るためのコンテキスト化された画像を表示する。別の実施形態では、ウェアラブル・デバイス611は、画像613として示されるコンテキスト化された画像を、患者612を含む表面上にブロードキャストまたは投影してもよい。
代替実施形態では、ユーザ610は、手持ち式またはウェアラブルの画像投影デバイスを制御してもよく、それによって、視野の近傍にいる誰もが画像613を見ることができるように、画像が表面または患者612上に投影される。
図7は、例示の実施形態による、磁気ベースの自己整列基準マーカ・システムの図である。
図7に示されるように、画像誘導処置中における術野の殺菌前後の追跡可能な基準マーカを相関させるシステム700が、利用されてもよい。一実施形態では、非無菌磁石703は、非無菌磁石を患者701に固着することを可能にする接着性の裏材702を有する。非無菌磁石は、相補的な磁気表面に固着される非無菌の追跡可能な識別子705を有してもよい。そのため、非無菌基準アセンブリ709は、接着性の裏材702、非無菌磁石703、およびドレープ704など、コンポーネントのアセンブリを包含してもよい。患者の殺菌前に、環境センサ708が非無菌基準アセンブリ709を追跡してもよい。患者の殺菌に続いて、ドレープ704が、患者の上に重ねられてもよく、非無菌基準アセンブリ709を覆って環境センサ708による直接追跡を防いでもよい。
無菌基準アセンブリ710は、非無菌磁石703に対する正確なアライメントを可能にする相補的な引力および性質を有する無菌磁石706のアセンブリを含む。無菌磁石706は、環境センサ708が追跡することができる非相補的な磁気表面上に無菌の追跡可能なマーカ707を有してもよい。ドレープが非無菌基準アセンブリ709を覆った状態で、無菌基準アセンブリ710を、固有の磁気特性を使用して709に対して重ね合わせ正確に位置決めすることができる。
図8は、専門家が、例示の実施形態による自己整列基準マーカ・システムを含むシステムの一実施形態を使用しているところの図である。
図8に示されるように、システム800によって、医療専門家または他のユーザ803が、データ・ソース機器801(一実施形態ではCTスキャンによって示される)を使用しており、患者802に対する画像誘導処置を実施する。この例では、ユーザ803は、無菌ドレープ805が患者802の上に重なっている状態で、患者構造808に関係する患者無菌領域806で作業している。追跡可能であって図7に示されるものに類似した、2つの基準マーカ807aおよび807bは、無菌領域内の適所にある。外部センサ809は基準マーカ807aおよび807bを追跡してもよい。一実施形態では、ウェアラブル表示デバイス804はまた、少なくとも第1の外部センサを含んでもよく、この追加のセンサは基準マーカ807aおよび807bを追跡するのを可能にする。一実施形態では、基準マーカ807aおよび807bに隣接した領域局所解剖学的およびテクスチャの特徴は、外部センサ809によって感知されるような追跡可能領域を拡張してもよい。
データ・ソース機器801は、プロセッサ、バス、メモリ、およびAPIなどのアルゴリズムを含み得るコンピュータ・コンポーネント810に接続されてもよい。コンピュータ・コンポーネント810は、コンピュータ・モニタなどのディスプレイに接続されてもよい。ユーザ803はまた、ウェアラブル表示デバイス804を使用してもよい。コンピュータ・コンポーネント810によってデータ・ソース機器801から取得したデータは、修正済みまたは未修正のデータとして、表示デバイス811またはウェアラブル・デバイス804に送信されてもよい。データは、807a、807b、これらの両方、または更なる追加のマーカなどの任意の数の基準マーカを追跡しながら、外部センサ809を利用して、コンテキスト的に適切な形で表示されるように修正されてもよい。一実施形態では、データは、例えば図3によって概説したようなコンピュータ・コンポーネント810によって取得されたデータから、または、801から導き出されたソース画像データ(例えばソース画像)内に埋め込まれたメタデータから、修正されてもよい。このように、ユーザ803は、本発明の一実施形態にしたがってデータ・ソース機器801によって提供されるコンテキスト化されるかまたはコンテキスト修正された画像を見てもよい。
本明細書で考察する様々な実施形態は、中でも特に、CT、超音波、MRI、X線透視、血管造影、ならびに腹腔鏡検査、結腸鏡検査、内視鏡下十二指腸鏡検査(EGD)、および膀胱鏡検査の間に撮像されるような光学ファイバスコープ画像などの医療画像を含む様々なデータを取得し表示するのに使用されてもよい。データは、画像、ならびに血圧、心拍数、呼吸数、パルス酸素化、温度、および他の生体計測読取り値などの生命徴候を含んでもよい。データはまた、心電図記録(EKG)、脳波記録(EEG)、筋電図記録、および他のかかるデータを含んでもよい。更に、一実施形態は、人工呼吸器、透析機械、体外式膜型人口肺(ECMO)機械、およびその他など、様々な生命維持システムの設定およびデータ・パラメータを含んでもよい。一実施形態では、データはまた、別の方法では電子カルテに記憶されて得る実験室データ、病理学データ、および微生物学データを含み、組み込んでもよい。
本明細書に記載するシステムは、外科処置の間、医療処置中の生体情報および画像のリアルタイムまたはほぼリアルタイムの読出しを医療専門家に提供するのに有用であってもよい。一部のかかる外科処置は、中でも特に、腹腔鏡検査、膀胱鏡検査、気管支鏡検査、結腸鏡検査、内視鏡検査、および喉頭鏡検査を含む、ファイバスコープ支援の処置を含んでもよい。他の一部の外科処置は、肝臓、腎臓、骨、または他の生検、静脈もしくは動脈カテーテル配置、血管造影、尿生殖器介入、整形外科、眼科的介入、肝胆嚢介入、神経学的介入、および他の処置など、超音波または他のX線透視介入を含んでもよい。
ウェアラブル・デバイスは、システムのユーザが、データおよび画像両方を見ること、ならびにデータを収集するデバイスを制御することを可能にする複数のウェアラブル・コンポーネントを含んでもよい、ウェアラブル・デバイスのシステムとして具体化されてもよい。複数のウェアラブル・コンポーネントは、ジェスチャを解釈してどのデータおよび画像を表示するかを制御する構成要素を含んでもよい。一実施形態では、ウェアラブル・コンポーネントは、ジェスチャを解釈してデータ収集デバイスを制御するように構成されてもよい。
当業者であれば、上述したような本発明は、異なる順序のステップで、ならびに/あるいは開示したのとは異なる構成の要素を用いて実施されてもよいことを、容易に理解するであろう。したがって、これらの好ましい実施形態に基づいて本発明について記載してきたが、本発明の趣旨および範囲内にありながら、特定の修正、変形、および代替構造が明らかであろうことが、当業者には明白であろう。
以下の項目は、国際出願時の特許請求の範囲に記載の要素である。
(項目1)
統合された診断試験およびリアルタイム治療のシステムであって、
少なくとも1つのソース画像が基準マーカを含む複数のソース画像を取得するように構成された、医療データ蓄積デバイスと、
取得された複数のソース画像をデータ・ストリームに符号化するように構成された、低レイテンシ・エンコーダと、
センサ・データを取得するように構成された、環境センサ・デバイスと、
取得されたセンサ・データおよび前記基準マーカに基づいて、ソース画像をコンテキスト修正するように構成された、プロセッサと、
コンテキスト修正されたソース画像を表示デバイスに送信するように構成された、送信デバイス、
を備えるシステム。
(項目2)
前記表示デバイスがウェアラブルである、項目1に記載のシステム。
(項目3)
前記医療データ蓄積デバイスが医療ツールである、項目1に記載のシステム。
(項目4)
前記医療ツールが、患者の体内からの非侵襲的映像を提供するように構成された撮像デバイスを含む、項目3に記載のシステム。
(項目5)
前記プロセッサが、ウェアラブル・デバイスからの入力に基づいてソース画像を更に修正する、項目1に記載のシステム。
(項目6)
前記ソース画像のコンテキスト修正がリアルタイムで実施される、項目1に記載のシステム。
(項目7)
コンテキスト修正された前記ソース画像が患者の上のオーバーレイを含む、項目1に記載のシステム。
(項目8)
統合された診断試験およびリアルタイム治療の方法であって、
少なくとも1つの医療ソース画像が基準マーカを含む複数の医療ソース画像を取得するステップと、
取得された複数の前記医療ソース画像を、低レイテンシ・エンコーダを使用して、データ・ストリームに符号化するステップと、
環境センサ・データを取得するステップと、
取得された前記環境センサ・データおよび前記基準マーカに基づいて、前記医療ソース画像の少なくとも1つをコンテキスト修正するステップと、
コンテキスト修正された前記医療ソース画像の少なくとも1つを表示デバイスに送信するステップ、
を含む方法。
(項目9)
前記表示デバイスがウェアラブルである、項目8に記載の方法。
(項目10)
複数の前記医療ソース画像を取得する前記ステップが、医療ツールを用いて実施される、項目8に記載の方法。
(項目11)
前記医療ツールが患者の体内からの非侵襲的映像を提供する、項目10に記載の方法。
(項目12)
ウェアラブル・デバイスからの入力に基づいて、前記医療ソース画像の少なくとも1つを修正するステップを更に含む、項目8に記載の方法。
(項目13)
前記医療ソース画像の少なくとも1つのコンテキスト修正がリアルタイムで実施される、項目8に記載の方法。
(項目14)
前記医療ソース画像の少なくとも1つの前記コンテキスト修正が患者の上のオーバーレイを含む、項目8に記載の方法。
(項目15)
統合された診断試験およびリアルタイム治療のための、命令が記憶された非一時的コンピュータ可読媒体であって、前記試験および治療が、
少なくとも1つの医療ソース画像が基準マーカを含む複数の医療ソース画像を取得するステップと、
取得された複数の前記医療ソース画像を、低レイテンシ・エンコーダを使用して、データ・ストリームに符号化するステップと、
環境センサ・データを取得するステップと、
取得された前記環境センサ・データおよび前記基準マーカに基づいて、前記医療ソース画像の少なくとも1つをコンテキスト修正するステップと、
コンテキスト修正された前記医療ソース画像の少なくとも1つを表示デバイスに送信するステップ、
を含む、非一時的コンピュータ可読媒体。
(項目16)
前記表示デバイスがウェアラブルである、項目15に記載の非一時的コンピュータ可読媒体。
(項目17)
複数の前記医療ソース画像を取得する前記ステップが、患者の体内からの非侵襲的映像を提供する医療ツールを用いて実施される、項目15に記載の非一時的コンピュータ可読媒体。
(項目18)
ウェアラブル・デバイスからの入力に基づいて、前記医療ソース画像の少なくとも1つを修正するステップを更に含む、項目15に記載の非一時的コンピュータ可読媒体。
(項目19)
前記医療ソース画像の少なくとも1つのコンテキスト修正がリアルタイムで実施される、項目15に記載の非一時的コンピュータ可読媒体。
(項目20)
前記医療ソース画像の少なくとも1つの前記コンテキスト修正が患者の上のオーバーレイを含む、項目15に記載の非一時的コンピュータ可読媒体。

Claims (17)

  1. 統合された診断試験およびリアルタイム治療のシステムであって、
    少なくとも1つのソース画像が基準マーカを含む複数のソース画像を取得するように構成された、医療データ蓄積デバイスと、
    前記医療データ蓄積デバイスによって取得された複数の前記ソース画像をデータ・ストリームに符号化するように構成された、低レイテンシ・エンコーダと、
    前記基準マーカを追跡するセンサ・データを取得するように構成された、環境センサ・デバイスと、
    前記環境センサ・デバイスによって取得された前記センサ・データおよび前記ソース画像に含まれる前記基準マーカに基づいて、前記低レイテンシ・エンコーダによって符号化された前記ソース画像の少なくとも1つをコンテキスト修正するように構成された、プロセッサと、
    前記プロセッサによってコンテキスト修正された前記ソース画像を、前記プロセッサによってコンテキスト修正された前記ソース画像を生検デバイス用の経路を描くように患者の解剖学的に適正な場所に表示するウェアラブル表示デバイスに送信するように構成された、送信デバイス、
    を備えるシステム。
  2. 前記データ・ストリームが、WPAまたはWPA2のために構成されている、請求項1に記載のシステム。
  3. 前記医療データ蓄積デバイスが、超音波撮像デバイスを有する、請求項1または2に記載のシステム。
  4. 前記医療データ蓄積デバイスが、患者の体内からの非侵襲的映像を提供するように構成された撮像デバイスを含む、請求項1に記載のシステム。
  5. 前記プロセッサが、前記ウェアラブル表示デバイスからの入力に基づいてソース画像を更に修正する、請求項1〜4のいずれか一項に記載のシステム。
  6. 前記環境センサ・デバイスが、ユーザの視線方向を追跡するように構成されている、請求項1〜5のいずれか一項に記載のシステム。
  7. 統合された診断試験およびリアルタイム治療のシステムの制御方法であって、
    前記システムが、
    医療データ蓄積デバイスと、
    低レイテンシ・エンコーダと、
    環境センサ・デバイスと、
    プロセッサと、
    送信デバイスと、
    を有し、
    前記制御方法が、
    前記医療データ蓄積デバイスが、少なくとも1つの医療ソース画像が基準マーカを含む複数の医療ソース画像を取得するステップと、
    前記低レイテンシ・エンコーダが、前記医療データ蓄積デバイスによって取得された複数の前記医療ソース画像を、データ・ストリームに符号化するステップと、
    前記環境センサ・デバイスが、前記基準マーカを追跡する環境センサ・データを取得するステップと、
    前記プロセッサが、前記環境センサ・デバイスによって取得された前記環境センサ・データおよび前記ソース画像に含まれる前記基準マーカに基づいて、前記低レイテンシ・エンコーダによって符号化された前記医療ソース画像の少なくとも1つをコンテキスト修正するステップと、
    前記送信デバイスが、前記プロセッサによってコンテキスト修正された前記医療ソース画像の少なくとも1つを、前記プロセッサによってコンテキスト修正された前記医療ソース画像を生検デバイス用の経路を描くように患者の解剖学的に適正な場所に表示するウェアラブル表示デバイスに送信するステップ、
    を含む方法。
  8. 前記データ・ストリームが、WPAまたはWPA2のために構成されている、請求項7に記載の制御方法。
  9. 複数の前記医療ソース画像を取得する前記ステップが、超音波撮像デバイスを用いて実施される、請求項7または8に記載の制御方法。
  10. 複数の前記医療ソース画像を取得する前記ステップが、非侵襲的医療データ蓄積デバイスを用いて実施される、請求項7または8に記載の制御方法。
  11. 前記プロセッサが、前記ウェアラブル表示デバイスからの入力に基づいて、前記医療ソース画像の少なくとも1つを修正するステップを更に含む、請求項7〜10のいずれか一項に記載の制御方法。
  12. 前記環境センサ・デバイスが、ユーザの視線方向を追跡するように構成されている、請求項7〜11のいずれか一項に記載の制御方法。
  13. 統合された診断試験およびリアルタイム治療のための、命令が記憶された非一時的コンピュータ可読媒体であって、前記試験および治療が、
    超音波撮像デバイスが、少なくとも1つの医療ソース画像が基準マーカを含む複数の医療ソース画像を取得するステップと、
    低レイテンシ・エンコーダが、前記超音波撮像デバイスによって取得された複数の前記医療ソース画像を、データ・ストリームに符号化するステップと、
    環境センサ・デバイスが、前記基準マーカを追跡する環境センサ・データを取得するステップと、
    プロセッサが、前記環境センサ・デバイスによって取得された前記環境センサ・データおよび前記医療ソース画像に含まれる前記基準マーカに基づいて、前記低レイテンシ・エンコーダによって符号化された前記医療ソース画像の少なくとも1つをコンテキスト修正するステップと、
    送信デバイスが、前記プロセッサによってコンテキスト修正された前記医療ソース画像の少なくとも1つを、前記プロセッサによってコンテキスト修正された前記医療ソース画像を生検デバイス用の経路を描くように患者の解剖学的に適正な場所に表示するウェアラブル表示デバイスに送信するステップ、
    を含む、非一時的コンピュータ可読媒体。
  14. 前記データ・ストリームが、WPAまたはWPA2のために構成されている、請求項13に記載の非一時的コンピュータ可読媒体。
  15. 複数の前記医療ソース画像を取得する前記ステップが、患者の体内からの非侵襲的映像を提供する医療ツールを用いて実施される、請求項13または14に記載の非一時的コンピュータ可読媒体。
  16. 前記プロセッサが、前記ウェアラブル表示デバイスからの入力に基づいて、前記医療ソース画像の少なくとも1つを修正するステップを更に含む、請求項13〜15のいずれか一項に記載の非一時的コンピュータ可読媒体。
  17. 前記環境センサ・デバイスが、ユーザの視線方向を追跡するように構成されている、請求項13〜16のいずれか一項に記載の非一時的コンピュータ可読媒体。
JP2019569660A 2017-03-03 2018-03-03 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法 Active JP6987893B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762466689P 2017-03-03 2017-03-03
US62/466,689 2017-03-03
PCT/US2018/020800 WO2018161057A1 (en) 2017-03-03 2018-03-03 Universal device and method to integrate diagnostic testing into treatment in real-time

Publications (3)

Publication Number Publication Date
JP2020510511A JP2020510511A (ja) 2020-04-09
JP2020510511A5 JP2020510511A5 (ja) 2021-02-25
JP6987893B2 true JP6987893B2 (ja) 2022-01-05

Family

ID=63355307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019569660A Active JP6987893B2 (ja) 2017-03-03 2018-03-03 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法

Country Status (6)

Country Link
US (1) US10839956B2 (ja)
EP (1) EP3589192A4 (ja)
JP (1) JP6987893B2 (ja)
KR (2) KR20200016829A (ja)
CN (1) CN110769740B (ja)
WO (1) WO2018161057A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11064208B2 (en) * 2018-02-20 2021-07-13 Arlo Technologies, Inc. Transcoding in security camera applications
US11756390B2 (en) 2018-02-20 2023-09-12 Arlo Technologies, Inc. Notification priority sequencing for video security
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
CN110246109B (zh) * 2019-05-15 2022-03-18 清华大学 融合ct影像和个性化信息的分析系统、方法、装置及介质
US11701828B2 (en) 2019-10-28 2023-07-18 Medtronic, Inc. Additive manufacturing for medical devices
US11759110B2 (en) * 2019-11-18 2023-09-19 Koninklijke Philips N.V. Camera view and screen scraping for information extraction from imaging scanner consoles
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
CN116056869A (zh) 2020-07-31 2023-05-02 美敦力公司 用于制造3d打印医疗装置的系统和方法
CN116096552A (zh) 2020-07-31 2023-05-09 美敦力公司 用于制造3d打印医疗装置的系统和方法
EP4188679A1 (en) 2020-07-31 2023-06-07 Medtronic, Inc. Method and system of additive manufacturing medical devices including internal shaping
WO2022159482A1 (en) * 2021-01-20 2022-07-28 Medtronic, Inc. Lead construction including alignable marker elements
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US20230397966A1 (en) * 2022-06-11 2023-12-14 Ecolab Usa Inc. Medical drape with connector system for surgical robotic tracking marker

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493575B1 (en) * 1998-06-04 2002-12-10 Randy J. Kesten Fluoroscopic tracking enhanced intraventricular catheter system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US9402601B1 (en) 1999-06-22 2016-08-02 Teratech Corporation Methods for controlling an ultrasound imaging procedure and providing ultrasound images to an external non-ultrasound application via a network
US7559895B2 (en) * 2000-07-07 2009-07-14 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Combining tomographic images in situ with direct vision using a holographic optical element
CA2486525C (en) * 2001-06-13 2009-02-24 Volume Interactions Pte. Ltd. A guide system and a probe therefor
US7383073B1 (en) * 2001-10-16 2008-06-03 Z-Kat Inc. Digital minimally invasive surgery system
US7697972B2 (en) * 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
CN101321542A (zh) * 2003-06-20 2008-12-10 巴尔的摩马里兰大学 用于微动脉成像和放射治疗的微颗粒
CN101291635B (zh) * 2005-10-20 2013-03-27 直观外科手术操作公司 医用机器人系统中的计算机显示屏上的辅助图像显示和操纵
US8020993B1 (en) * 2006-01-30 2011-09-20 Fram Evan K Viewing verification systems
JP2008018015A (ja) * 2006-07-12 2008-01-31 Toshiba Corp 医用ディスプレイ装置及び医用ディスプレイシステム
WO2008103383A1 (en) * 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
EP2134252A1 (en) * 2007-04-12 2009-12-23 Koninklijke Philips Electronics N.V. Image capture in combination with vital signs bedside monitor
US8315689B2 (en) * 2007-09-24 2012-11-20 MRI Interventions, Inc. MRI surgical systems for real-time visualizations using MRI image data and predefined data of surgical tools
US9521961B2 (en) 2007-11-26 2016-12-20 C. R. Bard, Inc. Systems and methods for guiding a medical instrument
CN101677799B (zh) * 2008-03-25 2012-05-30 株式会社东芝 医用图像处理装置以及x射线诊断装置
WO2010076676A1 (en) * 2009-01-05 2010-07-08 Koninklijke Philips Electronics, N.V. System and method for dynamic metal distortion compensation for electromagnetic tracking systems
US10517688B2 (en) * 2009-05-29 2019-12-31 Jack Wade Method for enhanced data analysis with specialized video enabled software tools for medical environments
EP2664360B1 (en) * 2010-02-24 2015-09-09 Accuray Incorporated Gantry image guided radiotherapy system and related tracking methods
JP2011200533A (ja) * 2010-03-26 2011-10-13 Fujifilm Corp 超音波診断装置
JP5394299B2 (ja) * 2010-03-30 2014-01-22 富士フイルム株式会社 超音波診断装置
JP2012170747A (ja) * 2011-02-23 2012-09-10 Toshiba Corp 超音波診断装置、及び超音波診断プログラム
US10010308B2 (en) * 2011-07-21 2018-07-03 The Research Foundation For The State University Of New York System and method for CT-guided needle biopsy
US20150133945A1 (en) * 2012-05-02 2015-05-14 Stryker Global Technology Center Handheld tracking system and devices for aligning implant systems during surgery
WO2014039051A1 (en) * 2012-09-07 2014-03-13 Empire Technology Development Llc Ultrasound with augmented visualization
EP4049706A1 (en) * 2013-03-15 2022-08-31 Intuitive Surgical Operations, Inc. Shape sensor systems for tracking interventional instruments and methods of use
WO2014139019A1 (en) * 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
US10493298B2 (en) * 2013-08-02 2019-12-03 Varian Medical Systems, Inc. Camera systems and methods for use in one or more areas in a medical facility
IL229527A (en) * 2013-11-21 2015-06-30 Elbit Systems Ltd A wide-field medical tracking system
US10231704B2 (en) 2013-12-20 2019-03-19 Raghu Raghavan Method for acquiring ultrasonic data
WO2015103388A1 (en) * 2014-01-02 2015-07-09 Metritrack, Inc. System and method for tracking completeness of co-registered medical image data
JP6287257B2 (ja) * 2014-01-24 2018-03-07 セイコーエプソン株式会社 画像形成装置及び超音波診断装置
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
WO2018049196A1 (en) * 2016-09-09 2018-03-15 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for display of patient data in computer-assisted surgery
US10524865B2 (en) * 2016-12-16 2020-01-07 General Electric Company Combination of 3D ultrasound and computed tomography for guidance in interventional medical procedures
US10499997B2 (en) * 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation

Also Published As

Publication number Publication date
EP3589192A1 (en) 2020-01-08
KR20200016829A (ko) 2020-02-17
EP3589192A4 (en) 2020-11-25
WO2018161057A1 (en) 2018-09-07
JP2020510511A (ja) 2020-04-09
KR102458587B1 (ko) 2022-10-25
CN110769740B (zh) 2023-09-05
US20180254099A1 (en) 2018-09-06
CN110769740A (zh) 2020-02-07
US10839956B2 (en) 2020-11-17
KR20220025186A (ko) 2022-03-03

Similar Documents

Publication Publication Date Title
JP6987893B2 (ja) 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法
JP7190145B2 (ja) 患者に貼付される光学コードを用いた患者の画像データと患者の実景との位置合わせ
CN108324246B (zh) 医疗诊断辅助系统及方法
JP6334821B2 (ja) 医用イメージングのために患者をポジショニングするためのガイドシステム
US20220405935A1 (en) Augmented reality patient positioning using an atlas
US9918798B2 (en) Accurate three-dimensional instrument positioning
ITUB20155830A1 (it) "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
US11406255B2 (en) System and method for detecting abnormal tissue using vascular features
US11083526B2 (en) Medical system, apparatus and method for shape sensing
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
US11816821B2 (en) Method and system for generating an enriched image of a target object and corresponding computer program and computer-readable storage medium
EP4191598A1 (en) Endoscope image processing device
KR20140128131A (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210108

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210621

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R150 Certificate of patent or registration of utility model

Ref document number: 6987893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150