JP2018502636A - ヘッドマウント式コンピュータ装置、その方法及びコンピュータプログラム製品 - Google Patents
ヘッドマウント式コンピュータ装置、その方法及びコンピュータプログラム製品 Download PDFInfo
- Publication number
- JP2018502636A JP2018502636A JP2017532667A JP2017532667A JP2018502636A JP 2018502636 A JP2018502636 A JP 2018502636A JP 2017532667 A JP2017532667 A JP 2017532667A JP 2017532667 A JP2017532667 A JP 2017532667A JP 2018502636 A JP2018502636 A JP 2018502636A
- Authority
- JP
- Japan
- Prior art keywords
- wearer
- head
- display module
- activity
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0804—Counting number of instruments used; Instrument detectors
- A61B2090/0805—Counting number of instruments used; Instrument detectors automatically, e.g. by means of magnetic, optical or photoelectric detectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0487—Special user inputs or interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0204—Acoustic sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Computer Hardware Design (AREA)
- Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ヘッドマウント式コンピュータ装置が開示され、このコンピュータ装置は、少なくとも1つのディスプレイモジュールと;1つ又は複数のセンサによって取得した信号及び/又はデータを受信し、且つヘッドマウント式コンピュータ装置の装着者によって操作される1つ又は複数の医療装置によって生成されたデータを受信するように構成されたインターフェイスと;1つ又は複数のセンサによって取得され、受信した信号及び/又はデータに基づいて装着者の活動を特定し、且つ少なくとも1つのディスプレイモジュールを制御して、装着者の特定された活動に対応する支援情報をディスプレイモジュールに表示するように構成されたプロセッサと;を有する。
Description
本発明は、少なくとも1つのディスプレイモジュールと、この少なくとも1つのディスプレイモジュールを制御して、装着者の特定された活動に応じてディスプレイモジュールに情報を表示するためのプロセッサとを有するヘッドマウント式コンピュータ装置に関する。
本発明は、さらに、装着者の特定された活動に応じて、ヘッドマウント式コンピュータ装置上に情報を表示するための方法に関する。
本発明は、さらに、ヘッドマウント式コンピュータ装置のプロセッサ上で実行されると、上記方法を実施するためのコンピュータプログラム製品に関する。
ヘッドマウント式コンピュータ装置、装着者の頭部に装着され、眼の近くで使用される(near to eye)ウェアラブル式のディスプレイ装置は、研究、軍事、及びゲーム業界で使用されてきた。そのようなヘッドマウント式コンピュータ装置は、対象物の識別番号や対象物のパラメータ等のビデオ及び/又は音声のユーザ支援情報を生成し、このようなユーザ支援情報を装着者に提供することができる。例えば、病院では、患者モニターから得たバイタルサイン信号を、手術室の外科医の頭部に装着されたヘッドマウント式コンピュータ装置上に表示させることができ、手術を行う外科医をサポートすることができる。
しかしながら、ヘッドマウント式コンピュータ装置によって提供され、表示されるユーザ支援情報は、装着者にとって過度の情報又は重要でない情報である可能性があり、従って、特に装着者の注意が、手術を行う等の特定のタスクを実行することに完全に向けられている場合に、装着者を混乱させる可能があり、且つ注意散漫になることは非常に危険である。
特許文献1は、視野内のシーンのビデオ画像を取り込むために眼鏡のフレームに取り付けられた1組のカメラと、装着者からの入力を受信するマイクロホンとを含む眼の近くで使用される表示システムを開示している。眼の近くで使用される表示システムに表示されるユーザ支援情報は、対話式ビデオ解析とマイクロホン介した音声によるユーザ入力とハンドヘルド装置からの信号から得られる。
本発明の目的は、装着者の特定された活動に応じてディスプレイモジュールに情報を表示するためのヘッドマウント式コンピュータ装置を提供することである。
本発明の更なる目的は、装着者の特定された活動に応じてそのようなヘッドマウント式モジュールを使用して情報を表示するための方法を提供することである。
本発明の更なる目的は、そのようなヘッドマウント式コンピュータ装置のプロセッサ上で実行されると、そのような方法を実施するためのコンピュータプログラム製品を提供することである。
一態様によれば、ヘッドマウント式コンピュータ装置が提供され、このコンピュータ装置は、少なくとも1つのディスプレイモジュールと;1つ又は複数のセンサによって取得した信号及び/又はデータを受信し、ヘッドマウント式コンピュータ装置の装着者によって操作された1つ又は複数の医療装置によって生成されたデータを受信するように構成されたインターフェイスと;1つ又は複数のセンサによって取得され、受信した信号及び/又はデータに基づいて装着者の活動を特定し、且つ少なくとも1つのディスプレイモジュールを制御して、装着者の特定された活動に対応する装着者支援情報をディスプレイモジュールに表示するように構成されたプロセッサと;を有する。
本発明は、特定のタスク又は活動を実行する、例えば手術室で外科手術を行う場合に、ディスプレイモジュールに表示される過剰な又は無関係な情報によって装着者が注意散漫になるのを回避するように、装着者支援情報、例えば装着者の現在の活動に関連する視覚的コンテンツ情報が、ヘッドマウント式コンピュータ装置のディスプレイモジュールに表示されるという考えに基づいている。
装着者の活動は、装着者の現在の活動を感知するための1つ又は複数のセンサによって特定することができる。センサは、例えば装着者の現在の視野及び/又は装着者が現在操作している装置を示す1つ又は複数の画像を取り込むための光センサを含むことができる。光センサは、例えば装着者が身に着けるヘッドマウント式コンピュータ装置に組み込まれたカメラであってもよく、又は手術室内の固定位置に据え付けてもよい。センサは、例えば装着者の命令又は会話を示す音声又は音響データを捕捉するためのマイクロホンを含むことができる。センサは、装着者の頭部又は身体の動きを示す加速度計又はジャイロスコープを含むこともできる。マイクロホン及び加速度計は、装着者が身に着けるヘッドマウント式コンピュータ装置に組み込んでもよい。
プロセッサは、1つ又は複数のセンサによって取得され、受信した信号及び/又はデータに基づいて、装着者の活動を特定することができる。装着者の活動の特定は、例えばプロセッサの画像処理ユニット及び/又は音声処理ユニットの使用によって実現することができる。例えば、装着者が外科手術を行っている場合に、1つ又は複数の前向き光センサによって取得され、受信した信号及び/又はデータは、例えばナイフを使用して切開部を形成する等の装着者の視野を示すことができ、音声又は音響データは、現在の装着者の指示、又は装着者と他の人(例えば、アシスタント)との間の会話を示すことができる。プロセッサの画像処理ユニットは、画像を解析し、画像情報の認識、例えば装着者が切開部を形成するために使用するナイフを認識することに基づいて、装着者の現在の活動を特定することができる。加えて、プロセッサの音声処理ユニットは、音声又は音響データを解析し、「はさみ」、「切断」、「心臓」、「開口部」等の音声又は音響データのキーワードの解釈又は検出に基づいて、装着者の現在の活動を特定することができる。
ディスプレイモジュールに表示される装着者支援情報は、特定のタスクを実行する装着者をサポートするための情報を含むことができる。例えば、外科手術を行う装着者をサポートするための支援情報は、患者のSpO2、ECG、EEG、呼吸数、心拍数、温度等の患者のバイタルサイン、又は標準的なX線イメージング、コンピュータ断層撮影(CT)、磁気共鳴画像法(MRI)、超音波(US)、陽電子放射断層撮影(PET)、単一光子放射型コンピュータ断層撮影法(SPECT)、及び核医学(NM)等の様々な取得モダリティにより取得された患者の医用画像を含むことができる。そのような支援情報は、ヘッドマウント式装置に接続された医療モニター又は装置によって取得され、又は送信機を介してヘッドマウント式装置に伝達することができ、それによって支援情報をリアルタイムでヘッドマウント式装置に送信することができる。あるいはまた、支援情報は、遠隔データベースに記憶してもよい。これは、装着者が、外科手術を行う等特定の活動を行うことができ、及び対象物の状態を監視するように、患者のバイタルサイン等の対象物のデータにハンズフリー(hands-free)でアクセスすることができるという利点を有している。あるいはまた、装着者の具体的な活動が特定されると、ディスプレイモジュールに表示される装着者の支援情報を、プロセッサによりディスプレイモジュールから自動的に非表示にし、輪郭をぼやかし、又は部分的に削除するように制御してもよい。例えば、ヘッドマウント式装置の装着者が、装着者による十分な注意を必要とするタスクを実行する、又は自分が他に気を取られてはいけない活動に従事する(例えば、介入治療のためにカテーテルを患者の体内に挿入する)場合に、装着者が注意散漫になるのを避けるために、ディスプレイモジュール上に表示される全ての支援情報を、プロセッサによって自動的に非表示にし、又は輪郭をぼやかす。あるいはまた、非表示又は削除された支援情報は、ヘッドマウント式コンピュータ装置による微妙な音声又は触覚刺激の方法で提供してもよい。
一実施形態では、プロセッサは、例えば患者のバイタルサイン等の1つ又は複数の受信したデータ又は信号の予め規定された閾値に基づいて、又は例えば出血等の患者の異常な又は突発的な変化の状態の特定に基づいて、少なくとも1つのディスプレイモジュールを制御して、警告メッセージをディスプレイモジュール上に表示するように構成される。これは、ユーザが患者のあらゆる重要な変化を見落とすことを防ぐことができるという利点を有する。一方、これによって、装着者が患者等の対象物又は自分が行っている活動から自分の目を外すことなく、変化に反応することができる。1つ又は複数の受信したデータの予め規定された閾値によって、患者のバイタルサイン等の受信したデータ又は信号の異常又は有意な変化を示すことができる。閾値は、装着者によって予め決定してもよく、或いは例えば患者の状態に基づいて適応的に調整することができ、又は記録した患者データから学習することができる。警告メッセージは、警告音声信号、テキスト、又は視覚的コンテンツ情報を含むことができる。警告メッセージは、ディスプレイモジュールにポップアップ表示することができ、又は装着者の注意を引き付けるように、他の表示情報以外の強調表示された又は拡大された方法で、異なる色/明るさ又は異なるフォント/フォーマットでディスプレイモジュールに表示することができる。ポップアップ表示された警告メッセージは、所定時間が経過した場合に、消してもよい。所定時間は、装着者の活動に応じて、装着者の注意を引き付けるのに十分な長さの5秒又は10秒にしてもよい。全ての支援情報がカテーテルを人体に挿入する等の装着者の特定された活動に基づいてディスプレイモジュールから非表示又は削除された場合でも、警告メッセージをディスプレイモジュールに表示してもよいことに留意されたい。
一実施形態では、装着者の活動は、1つ又は複数のセンサによって取得され、受信した信号及び/又はデータと、ヘッドマウント式コンピュータ装置の装着者によって操作された1つ又は複数の医療装置から受信したデータとの組合せに基づいて特定される。これは、装着者の活動の正確な特定を可能にするという利点を有している。装着者の活動を検出するためのセンサシステムは、その制限を有し得る。いくつかの用途について、装着者の活動が検出されないか、又はセンサのみによって検出するのが困難な場合がある。例えば、光センサは、装着者が観察している又は操作している医療装置等の対象物を検出することができるが、光センサ又は音声センサのみによって、装着者が対象物をどの様に操作又は操縦しているか、及び/又は装着者が対象物のどの部分を操作しているかを検出できない場合があり得る。特定の実施例では、装着者が診断又は治療処置を行うために医療システム/装置を操作しているときに、カメラ/マイクロホンによって、装着者の活動を詳細に検出することは非常に困難になり得る。図1に示されるように、装着者が患者の体内に挿入したカテーテルを用いてRFアブレーションを行う場合に、カテーテルの操縦、X線装置のペダルを制御することによるインターベンション用X線装置の起動/停止、アブレーションの開始/停止等の装着者の活動は、そのような活動をカメラ/マイクロホンによって捕捉するには短過ぎ、従って特定することが困難となり得る事実によって、カメラ/マイクロホンによって検出可能でないことがあり、インターベンション用X線装置等の障害物によって妨害又は阻止され得る。一実施形態では、1つ又は複数の医療装置から受信したデータは、医療装置の識別情報を含むことができる。装着者によって操作されるカテーテル及び/又はインターベンション用X線装置からデータを受信することによって、プロセッサは、装着者が現在操作している医療装置を特定することができる。さらに、受信したデータは、X線装置のペダル等の、装着者が操作している医療装置の一部を示すことができる。従って、X線装置のペダルを制御することによるインターベンション用X線装置に関する操作等の装着者の活動を、正確に特定することができる。
一実施形態では、ディスプレイモジュール上に表示される装着者支援情報は、装着者が1つ又は複数の医療装置を操作する操作又は活動の継続時間を含むことができる。これは、装着者が自分の現在の活動に費やした時間をハンズフリーで監視するのを可能にするという利点を有する。
あるいはまた、装着者によって実行される操作又は活動の継続時間が所定値より長い場合に、警告メッセージをディスプレイモジュール上に表示してもよい。これは、時間を超過した活動によって生じるリスクやダメージを避けるために、装着者が、自分が現在行っている時間を超過した活動や操作を中止するのを可能にするという利点を有する。例えば、エネルギーが適切な強度で印加される場合に、アブレーション操作を合理的期間に亘って継続することができる。アブレーション操作の継続時間が短過ぎると、外傷部は、貫壁性ではないかもしれない、すなわち、疾患部は適切に処理されないかもしれない。アブレーション操作の期間が長過ぎる場合に、アブレーションによって、肺や食道等の隣接する臓器への損傷を引き起こす可能性があり、危険な場合があり、患者の生命を脅かす恐れがある。従って、アブレーション操作の継続時間を長過ぎる期間に亘って継続させないことは重要となり得る。一実施形態では、操作又は活動の継続期間に関する情報は、装着者に警告するために、異なる色/明るさ又は異なるフォント/フォーマット等を使用して強調表示することができる。あるいはまた、患者のECG又は他のバイタルサイン等の装着者支援情報は、警告メッセージを強調表示するために、ディスプレイモジュールから非表示にされ、輪郭がぼやかされ、又は部分的に削除してもよい。
別の態様によれば、上記の1つ又は複数の実施形態よるヘッドマウント式コンピュータ装置に情報を表示する方法が提供され、この方法は、1つ又は複数のセンサによって取得した信号及び/又はデータを受信するステップと;ヘッドマウント式コンピュータ装置の装着者によって操作された1つ又は複数の医療装置によって生成された1つ又は複数の信号を受信するステップと;1つ又は複数のセンサによって取得され、受信した信号及び/又はデータに基づいて装着者の活動を特定するステップと;装着者の特定された活動に対応する情報をディスプレイモジュールに表示するステップと;を含む。これによって、例えば手術室で外科手術を行う等特定のタスク又は活動を行う際に、装着者は、ディスプレイモジュールに表示される過剰な又は無関係な情報によって装着者が注意散漫になることを避けることができる。
一実施形態では、ヘッドマウント式コンピュータ装置上に情報を表示するステップは、装着者の特定された活動に対応する、ディスプレイモジュールに表示される情報を非表示にするステップを含むことができる。
一実施形態では、装着者の活動の特定は、1つ又は複数のセンサによって取得され、受信した信号及び/又はデータと、ヘッドマウント式コンピュータ装置の装着者によって操作された1つ又は複数の医療装置から受信したデータとの組合せに基づいてもよい。
一実施形態では、ヘッドマウント式コンピュータ装置上に情報を表示するステップは、1つ又は複数の受信した信号の予め規定された閾値に基づいて、ディスプレイモジュール上に警告メッセージを表示するステップを含むことができる。
一実施形態では、ディスプレイモジュールに表示される装着者支援情報は、装着者が1つ又は複数の医療装置上で操作する操作の継続時間を含むことができ、及び操作の継続時間が所定値よりも長い場合に、警告メッセージをディスプレイモジュールに表示させることを含むことができる。
さらに別の態様によれば、コンピュータ・プログラムコードを含むコンピュータプログラム製品が提供され、コンピュータ・プログラムコードが上記実施形態の1つ又は複数のヘッドマウント式コンピュータ装置のプロセッサ上で実行されると、上記実施形態の1つ又は複数による方法のステップを実施する。そのようなコンピュータプログラム製品は、例えばアプリケーションストアで入手可能なソフトウェアアプリケーション(APP)等の任意の適切な形態でヘッドマウント式コンピュータ装置に利用可能にすることができ、及びそのようなコンピュータプログラム製品を使用して、ヘッドマウント式コンピュータ装置が上記方法を実施できるようにヘッドマウント式コンピュータ装置を構成することができる。
本発明の実施形態について、添付図面を参照してより詳細に且つ非限定的な例として説明する。
図面は単に概略的であり、一定の縮尺で描かれていないことを理解すべきである。同じ参照符号は、同一又は同様の部分を示すために図面全体を通じて使用されることも理解すべきである。
本願の文脈では、ヘッドマウント式コンピュータ装置は、ユーザの頭部に装着することができ、且つコンピュータ機能をユーザに提供する装置である。ヘッドマウント式コンピュータ装置は、ソフトウェアアプリケーション(APP)において指定されるような特定のコンピュータタスクを実行するように構成することができ、そのアプリケーションは、インターネット又は他のコンピュータ可読媒体から検索することができる。そのようなヘッドマウント式コンピュータ装置の非限定的な例は、例えば、眼鏡、ゴーグル、ヘルメット、帽子、バイザー、ヘッドバンド、Google glass(登録商標)、又は装着者の頭部で又は頭部から支持される他の装置等のスマートヘッドギアを含む。
本願の文脈では、ヘッドマウント式コンピュータ装置は、ウェアラブルコンピュータ装置の装着者の視野内の画像を取り込むためのカメラ等の光センサを含んでもよい。カメラは、ヘッドマウント式コンピュータ装置が意図したように装着された場合に、カメラがその装着者の眼と整列される、すなわちその装着者の視野に対応する前向きセンサ信号を生成するように配置してもよい。そのようなカメラは、ヘッドマウント式コンピュータ装置に一体化してもよい。あるいはまた、光センサは、固定位置、例えば手術室の固定位置等に据え付けてもよく、及び有線又は無線接続を介してヘッドマウント式コンピュータ装置に通信可能に結合される。
図2は、一実施形態によるヘッドマウント式コンピュータ装置100を概略的に示す。ヘッドマウント式コンピュータ装置100は、少なくとも1つのディスプレイモジュール106を含むことができ、このディスプレイモジュール106は、ヘッドマウント式コンピュータ装置100のプロセッサ110の制御の下で、シースルー(see-through)又は透明のディスプレイモジュール106とすることができる。少なくとも1つのディスプレイモジュール106は、典型的には、ヘッドマウント式コンピュータ装置100の装着者が、少なくとも1つのディスプレイモジュール106に表示された画像又はデータを確認できるように配置される。好ましくは、少なくとも1つのディスプレイモジュール106は、装着者がディスプレイモジュール106を通して視野の少なくとも一部を観察できるようにシースルー又は透明のディスプレイモジュールである。
ヘッドマウント式コンピュータ装置100は、ヘッドマウント式コンピュータ装置100の装着者の視野内の画像又はビデオデータ又は信号を取り込むためのカメラ120をさらに含むことができる。そのように取り込んだ画像又はビデオデータ又は信号は、装着者の活動を解析するために使用することができる。あるいはまた、カメラを含む他の電子装置を使用して、ウェアラブルコンピュータ装置の装着者を含む領域からの画像又はビデオデータ又は信号を取り込むことができる。そのような電子装置の例は、スマートフォン、タブレット等のハンドヘルド装置、他のヘッドマウント式コンピュータ装置、部屋に取り付けられた監視カメラ(alarm camera)等の監視装置、又は遠隔フォトプレチスモグラフィのために使用されるバイタルサインカメラを含む装置等のバイタルサイン監視装置であってもよい。
ヘッドマウント式コンピュータ装置100は、カメラ120又はカメラを含む他の電子装置によって取り込まれた1つ又は複数の画像又はビデオデータを受信するためのインターフェイス111をさらに含んでもよい。インターフェイス111は、ヘッドマウント式コンピュータ装置100の装着者によって操作される1つ又は複数の医療装置からデータを受信するために使用することもできる。
ヘッドマウント式コンピュータ装置100は、装着者のコマンドを受け取るためのユーザインターフェイス又は制御要素等のボタン122、装着者の発話指示又は装着者と他の人(アシスタント等)との間の会話を捕捉するためのマイクロホン124、装着者がヘッドマウント式コンピュータ装置100によって生成された音声情報を聞くのを可能にするスピーカ126、装着者の頭部の回転又はうなずき等の装着者のジェスチャー又は動きを認識するための加速度計130、及び送信機128をさらに含んでもよい。
プロセッサ110は、データ記憶装置112等の非一時的なコンピュータ可読媒体に記憶された命令、すなわちコンピュータ・プログラムコードを実行することができる。プロセッサ110は、インターフェイス111から受信した又はカメラ120から直接的に受信した1つ又は複数の画像又はビデオデータ又は信号を解析して、ヘッドマウント式コンピュータ装置100の装着者の活動を特定するための撮像処理ユニット132を含んでもよい。プロセッサは、マイクロホン124から取得した音声又は音響データを解析して、装着者の現在の活動を特定するための音声処理ユニット134をさらに含んでもよい。データ記憶装置112は、患者の生理的パラメータ、例えばCT、MRI又はX線医用画像等の種々のモダリティの患者の医用画像、各装着者の活動のために必要な種類の支援情報を規定するルックアップテーブル(LUT)等の支援情報を記憶するためのデータベース(の一部)として機能することができる。一実施形態では、データベース又はデータ記憶装置112内のその部分は、送信機128を介して遠隔マスター・データベースと同期させることができるローカルコピーである。あるいはまた、ヘッドマウント式コンピュータ装置100は、送信機128を介して遠隔システム200、例えば患者データベース等の遠隔データベースをホストする遠隔サーバーと無線で通信するように構成される。任意の適切な無線通信プロトコル、例えばIEEE802.11規格、2G、3G、又は4G通信プロトコル等に従う赤外線リンク、ジグビー(登録商標)、ブルートゥース(登録商標)、無線ローカルエリアネットワークプロトコルは、ヘッドマウント式コンピュータ装置100と遠隔システム200との間の無線通信のために使用することができる。
ボタン122によって、装着者が、オプションのリストからユーザ命令を選択することを可能にする。例えば、そのようなオプションのリストは、ヘッドマウント式コンピュータ装置100のディスプレイモジュール106に表示してもよい。
図3は、装着者の活動に応じて、ヘッドマウント式コンピュータ装置100のディスプレイモジュール106上の支援情報を表示するための方法200のフローチャートを示す。
方法200は、ステップ202において、プロセッサ110によって定期的にトリガされる起動コマンドを受信すると開始する。プロセッサ110によってトリガされる2つの起動コマンド同士の間隔は、ヘッドマウント式コンピュータ装置100の装着者が予め規定することができる。あるいはまた、起動コマンドは、装着者の命令によってトリガしてもよい。そのような命令204は、加速度計130による頭部の動き又はジェスチャー、マイク124による発話命令、ボタン122を押すこと等によって任意の適切な方法で与えることができる。
方法200は、次に、ステップ204に進み、このステップ204では、1つ又は複数の画像又はビデオデータがカメラ120によって取り込まれ、音声又は音響データがマイクロホン124によって捕捉され、又は1つ又は複数の医療装置から得られたデータを受信する。
1つ又は複数の画像又はビデオデータを取り込む際に、プロセッサ110は、次に、ステップ206に進み、取り込んだ画像又はビデオデータ又は信号及び/又は捕捉された音声又は音響データの解析結果に基づいて、ヘッドマウント式コンピュータ装置の装着者の活動を特定する。活動の特定は、例えば取り込んだ画像又はビデオデータ内の対象物を検出し、装着者の各活動のための支援情報のタイプ(例えば、必要な種類の支援情報が予め規定された特定の活動に対応する対象物のリスト)を規定するルックアップテーブル(LUT)に対して特定された対象物を比較することによって、実現することができる。取り込んだ画像又はビデオデータ内で検出された対象物が、特定の活動に対応するLUT内の対象物の同じリストと同一である場合に、そのような活動が特定される。対象物の検出に加えて、ユーザの活動は、ビデオ内で検出された対象物の動きのパターン、例えば装着者の手の動きを解析することによって特定することができる。パターン認識アルゴリズム等の一般的なビデオ解析方法は、対象物、又は取り込んだ画像又はビデオデータで検出された対象物の動きのパターンを検出するために使用することができる。例えば、装着者の手の動きパターンは、ビデオ内の手を追跡して動きの軌跡を導出することによって導き出すことができる。検出された対象物(複数可)を追跡するために使用することができる様々な視覚追跡技術が文献に示されている。例えば、Yilmazらの”Object Tracking: A survey”という標題の出版物(ACM Computing Surveys, Vol.38, Issue 4, 2006)は、最先端の対象物追跡方法を説明している。
あるいはまた、装着者の活動の特定は、音声又は音響データを検出し、「はさみ」、「切断」、「心臓」、「開口部」等の音声/音響データのキーワードを傍受又は検出することに基づいて、装着者の現在の活動を特定することによって、実現することができる。検出されたキーワードは、LUT内のキーワードのリストと比較することができる。LUT内の各活動は、1つ又は複数のキーワードにリンク付けすることができる。検出されたキーワードが活動に対応するLUT内の同じキーワードに一致している場合に、そのような活動が特定される。
活動の特定は、ヘッドマウント式コンピュータ装置の装着者によって操作される1つ又は複数の医療装置から取得したデータを受信することによって実現することもできる。受信したデータは、装着者の活動、すなわち装着者が操作する医療装置を正確に特定するように、医療装置のタイプ又はバージョン等の、装着者が操作する医療装置の識別情報を含んでもよい。
活動の特定は、ビデオ/画像データの解析と、音声/音響データの解析と、装着者が操作する医療装置から受信したデータの解析とを組み合わせることにより、実現することができることを理解されたい。
LUT内の活動は、2つの異なるタイプの活動、すなわち支援情報が必要な活動と支援情報を必要としない活動と、に予め分類することができる。支援情報が必要な活動について、予め規定されたデータベースは、各活動に必要な支援情報を含むことができる。LUTによって、各活動の支援情報の種類を規定することができる。支援情報の種類としては、対象物の1つ又は複数の生理学的パラメータ、対象物の異なるモダリティの医用画像等が挙げられるが、これらに限定されるものではない。装着者の活動を特定できない場合に、次に、方法はステップ204に戻るようにトリガしてもよい。
ヘッドマウント式コンピュータ装置100の装着者の活動を特定すると、その後ステップ208で、プロセッサ110は、特定された活動がユーザ支援情報を必要とするか否かをチェックする。特定された活動が支援情報を必要とすることが確認された場合に、次に、この方法は、ステップ210に進むようトリガしてもよい、つまり、ディスプレイモジュール106上にそのような情報を表示することにより、支援情報を装着者に提供する。特定された活動がユーザ支援情報を必要としないことが確認された場合に、この方法は、ステップ212に進むようトリガしてもよい、つまり、ディスプレイモジュール106上に表示される全ての情報を非表示又は削除する。
ステップ210でディスプレイモジュール106に情報を表示した、又はステップ212でディスプレイモジュール106に表示した情報を削除した後に、この方法は、他のビデオデータ又は音声データを捕捉し又は1つ又は複数の医療装置から取得した他のデータを受信して、装着者の活動を再び特定するためにステップ204に戻ることができ、或いはステップ214で終了してもよい。
図4は、図2のヘッドマウント式コンピュータ装置の態様を概略的に示し、さらに、インターベンション用X線を用いてカテーテルアブレーション操作を行う装着者の活動のための、ディスプレイモジュール106に表示される装着者支援情報の例を示す。
カテーテルアブレーションは、心臓の部分から欠陥経路を除去又は終端させる処置であり、心房細動(AF)等の不整脈を治療するために益々使用されている。
(患者との前処置を含む)手術を準備した後に、カテーテルアブレーションの処置321を開始することができる。ヘッドマウント式コンピュータ装置100の装着者は、最初にカテーテル601を患者の体内に挿入することができる。カテーテル挿入の活動は、ヘッドマウント式装置100のカメラ120によって検出することができる。検出された画像は、「カテーテル」及び挿入の動作を示す装着者の「手」等の対象物を含むことができる。検出された画像は、プロセッサ110の画像処理ユニット132によって解析することができる。プロセッサ110は、活動のリストに対応するLUT内の対象物のリストに対して、特定された対象物、「カテーテル」及び「手」をさらに比較することができる。LUT内の対象物、「カテーテル」及び「手」がカテーテル挿入の活動に対応する場合に、次に、一致が見出され、カテーテル挿入の活動が特定される。カテーテル挿入の活動は、対象物、「カテーテル」及び/又は「手」の検出と、手の動きパターン解析との組合せに基づいて特定することができる。LUTにおいて、カテーテル挿入の活動のために支援情報が何ら必要ではないことが既に規定されている場合に、従って、ディスプレイモジュール106内の全ての支援情報をディスプレイモジュールから自動的に非表示又は削除し、図4の左側部分に示されるように、如何なる支援情報もディスプレイモジュール106に表示されないようする。これによって、装着者がカテーテルを患者の体内に挿入することに集中するのを可能にする。あるいはまた、装着者は、例えばボタン122を押す、又はヘッドマウント式コンピュータ装置100の音声コマンドを送信することによって、自分にとって好ましいいくつかの関連する支援情報を表示させ、選択することもできる。
アブレーションを開始する前に、装着者は、カテーテルナビゲーション手順323を開始する必要がある場合があり、つまり患者の心臓の正しい位置にカテーテルチップをナビゲートする必要がある。カテーテルのナビゲーション及びマッピングは、通常、X線画像302及びプリビルド(pre-build)心臓モデル304を使用することによって行うことができる。装着者は、自分の足でペダルを押すことによってX線画像302の生成を開始及び停止することができる。この動作は、カメラセンサによって検出可能でないかもしれない。X線システムとヘッドマウント式コンピュータ装置100とを接続又は通信させることにより、X線装置及びカテーテル601の識別情報を含むデータを、ヘッドマウント式コンピュータ装置100に送信することができる。受信したデータに基づいて、プロセッサ110は、装着者が現在、X線装置だけでなくカテーテルで操作していることを特定することができる。LUT内の予め規定された規則に基づいて、図4の中央部分に示されるように、カテーテルの位置を示すX線画像302及びプリビルド心臓モデル304をディスプレイモジュール106に表示してもよい。装着者は、X線画像302及びプリビルド心臓モデル304によって患者の体内でのカテーテル601の現在位置を確認することができる。
カテーテルチップ601が、RFアブレーションのために患者の身体の正しい位置に挿入された後に、装着者は、RFアブレーション処置325を開始する、すなわち心臓組織にエネルギーを印加することができる。アブレーションの開始及び停止は、センサのみを用いて検出することが困難な場合がある。カテーテル601をヘッドマウント式コンピュータ装置100に接続又は通信することによって、RFアブレーションを開始及び停止する活動を検出することができる。アブレーションプロセスの間に、装着者は、アブレーションが十分かどうか、つまり心臓壁に良好な「貫壁性」の外傷部を生じさせたどうかを監視する必要がある。現在の臨床診療では、医師が患者のECG信号を監視する。ECG(心電図、又は心電図検査)信号の変化から、医師はアブレーションが十分であるかどうかを決定することができる。
プロセッサ110が、装着者がアブレーションを開始したことを検出した場合に、LUT内の予め規定した規則に基づいて、図4の右側部分に示されるように、ECG又は電位図信号306、或いはアブレーションの進捗を示す他の支援情報を、ディスプレイモジュール106に表示してもよい。
カテーテルチップと心臓壁との間の圧力は、大抵の場合に、RFアブレーションの進捗を監視するために使用される。LUT内の予め規定した規則に基づいて、図4の右側部分に示されるように、アブレーション処置中に圧力インジケータ308をディスプレイモジュール106上に表示させてもよい。
あるいはまた、図4の右側部分に示されるように、アブレーション・インジケータ310の継続時間を、ディスプレイモジュール106上に表示させてもよい。より重要なこととして、アブレーションの継続時間が予め規定された閾値Tよりも長い場合に、医師に警告を与えるために、例えば異なる色/明るさ又は異なるフォント/フォーマットを使用して、アブレーション・インジケータ310の継続時間を強調表示してもよい。パラメータTは、心臓内のカテーテルチップ601の位置に依存してもよく、通常、パラメータTは10秒である。
図5は、本発明による方法の第2の実施形態のフローチャートを示す。
方法400は、ステップ402において、プロセッサ110によって定期的にトリガされる起動コマンドを受信すると開始する。プロセッサ110によってトリガされる2つの起動コマンド同士の間隔は、ヘッドマウント式コンピュータ装置100の装着者が予め決定することができる。方法400は、次にステップ404に進み、すなわち、プロセッサ110は、患者のバイタルサイン信号又はデータが予め規定された閾値よりも大きいかを判定する。閾値よりも大きい場合に、方法400はステップ406に進むようにトリガされ、すなわち、ディスプレイモジュール106上に警告メッセージを表示する。閾値よりも小さい場合に、次に、方法400はステップ404に戻る。ステップ406において、ディスプレイモジュール106上に警告メッセージを表示した後に、本方法はステップ404に戻るか、又はステップ408で終了してもよい。
本発明の態様は、ウェアラブルコンピュータ装置、方法、又はコンピュータプログラム製品として具現化することができる。本発明の態様は、その上に具現化されるコンピュータ可読プログラムコードを有する1つ又は複数のコンピュータ可読媒体に具現化されるコンピュータプログラム製品の形態をとることができる。
1つ又は複数のコンピュータ可読媒体の任意の組合せを利用してもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁、赤外線、又は半導体システム、機器、又は装置、或いは前述した任意の適切な組合せであってもよいが、これらに限定されるものではない。そのようなシステム、機器、又は装置は、任意の適切なネットワーク接続を介してアクセス可能であってもよい。例えば、システム、機器、又は装置は、ネットワーク上のコンピュータ可読プログラムコードの検索のために、ネットワークを介してアクセス可能であってもよい。そのようなネットワークは、例えばインターネット、モバイル通信ネットワーク等であってもよい。コンピュータ可読記憶媒体のより具体的な例(非網羅的リスト)として、以下のものを挙げることができる:1つ又は複数のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記の適切な組合せである。本願の文脈において、コンピュータ可読記憶媒体は、命令実行システム、機器、又は装置によって使用される又はこれらに関連して使用されるプログラムを含む又は記憶することができる任意の有形の媒体であってもよい。
コンピュータ可読信号媒体は、例えばベースバンドで又は搬送波の一部として、内部にコンピュータ可読プログラムコードを有する伝搬データ信号を含むことができる。そのような伝搬信号は、電磁気、光学、又はそれらの任意の適切な組合せを含むが、これらに限定されない様々な形態をとるができる。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、機器、又は装置によって使用される又はこれらに関連して使用されるプログラムを通信、伝搬、又は転送することができる任意のコンピュータ可読媒体であってもよい。
コンピュータ可読媒体上で具現化されるプログラムコードは、無線、有線、光ファイバケーブル、RF等、又は前述した任意の適切な組合せを含むが、これらに限定されない、任意の適切な媒体を用いて送信することができる。
プロセッサ110上で実行することにより本発明の方法を実行するためのコンピュータ・プログラムコードは、Java(登録商標)、Smalltalk、C++等のオブジェクト指向プログラミング言語及び「C」プログラミング言語又は同様のプログラミング言語等の従来の手続き型プログラミング言語を含む、1つ又は複数のプログラミング言語の任意の組合せで書くことができる。プログラムコードは、例えば、スタンドアロン型ソフトウェアパッケージ、例えばアプリとしてプロセッサ110上で完全に実行してもよく、又はプロセッサ110上で部分的に実行され且つ遠隔サーバー上で部分的に実行してもよい。後者のシナリオでは、遠隔サーバーは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してヘッドマウント式コンピュータ装置100に接続することができ、又は例えばインターネットサービスプロバイダを使用してインターネットを介して外部コンピュータに接続を行うことができる。
本発明の態様は、本発明の実施形態による方法、装置(システム)及びコンピュータプログラム製品のフローチャート図及び/又はブロック図を参照して上記に記載されている。フローチャート図及び/又はブロック図の各ブロック、及びフローチャート図及び/又はブロック図のブロックの組合せは、コンピュータプログラム命令によって、ヘッドマウント式コンピュータ装置100のプロセッサ110上で全体的に又は部分的に実行されるように実施することができ、それによって命令が、フローチャート及び/又はブロック図のブロックで指定された機能/動作を実現する手段を形成することが理解されるであろう。これらのコンピュータプログラム命令は、コンピュータ可読媒体に記憶することもでき、特定の方法で機能するようにヘッドマウント式コンピュータ装置100に命令することができる。
コンピュータプログラム命令は、プロセッサ110にロードされ、一連の動作ステップをプロセッサ110上で実行させ、プロセッサ110上で実行される命令がフローチャート及び/又はブロック図のブロックで指定された機能/動作を実現するためのプロセスを提供するようにコンピュータ実行プロセスを生成する。コンピュータプログラム製品は、ヘッドマウント式コンピュータ装置100の一部を形成してもよく、例えばヘッドマウント式コンピュータ装置100にインストールすることができる。
なお、上述した実施形態は本発明を限定するものではなく例示するものであり、当業者であれば、添付の特許請求の範囲から逸脱することなく多くの代替実施形態を設計することができるであろうことに留意されたい。請求項において、括弧内の参照符号は、特許請求の範囲を限定するものとして解釈すべきではない。「備える、有する、含む(comprising)」という用語は、請求項に列挙された以外の要素又はステップの存在を排除するものではない。ある要素に先行する「1つの(a, an)」という用語は、そのような複数の要素の存在を排除するものではない。本発明は、幾つかの別個の要素を有するハードウェアによって実現することができる。いくつかの手段を列挙する装置クレームにおいて、これらの手段のいくつかは、同一のハードウェア項目によって具現化することができる。特定の手段が互いに異なる従属請求項に記載されているという単なる事実は、これらの手段の組合せが有利に使用できないことを示すものではない。
Claims (13)
- ヘッドマウント式コンピュータ装置であって、当該コンピュータ装置は、
少なくとも1つのディスプレイモジュールと、
1つ又は複数のセンサによって取得した信号及び/又はデータを受信し、且つ当該ヘッドマウント式コンピュータ装置の装着者によって操作される1つ又は複数の医療装置によって生成されたデータを受信するように構成されたインターフェイスと、
前記1つ又は複数のセンサによって取得され、受信した信号及び/又はデータに基づいて前記装着者の活動を特定し、且つ前記少なくとも1つのディスプレイモジュールを制御して、前記装着者の特定された活動に対応する支援情報を前記ディスプレイモジュールに表示させるように構成されたプロセッサと、を有しており、
前記装着者の活動は、前記1つ又は複数のセンサによって取得され、受信した信号及び/又はデータと、当該ヘッドマウント式コンピュータ装置の前記装着者によって操作される前記1つ又は複数の医療装置から受信したデータとの組合せに基づいて特定される、
ヘッドマウント式コンピュータ装置。 - 前記プロセッサは、前記少なくとも1つのディスプレイモジュールを制御して、前記ディスプレイモジュールに表示される前記装着者の特定された活動に対応する情報を非表示にするように構成される、請求項1に記載のヘッドマウント式コンピュータ装置。
- 前記プロセッサは、前記少なくとも1つのディスプレイモジュールを制御して、1つ又は複数の前記受信したデータの予め規定された閾値に基づいて、警告メッセージを前記ディスプレイモジュールに表示するように構成される、請求項1又は2に記載のヘッドマウント式コンピュータ装置。
- 前記1つ又は複数の医療装置から受信したデータは、前記医療装置の識別情報を含む、請求項1乃至3のいずれか一項に記載のヘッドマウント式コンピュータ装置。
- 前記医療装置は、カテーテル又はインターベンション用X線である、請求項1乃至4のいずれか一項に記載のヘッドマウント式コンピュータ装置。
- 前記1つ又は複数のセンサは、当該ヘッドマウント式コンピュータ装置の一部であり、前記1つ又は複数のセンサは、撮像センサ、マイクロホン、及び加速度計のうちの1つである、請求項5に記載のヘッドマウント式コンピュータ装置。
- 前記ディスプレイモジュール上に表示された前記支援情報は、前記装着者が、前記1つ又は複数の医療装置を操作する操作活動の継続時間を含む、請求項1乃至6のいずれか一項に記載のヘッドマウント式コンピュータ装置。
- 前記操作活動の前記継続時間が所定値よりも長い場合に、警告メッセージが前記ディスプレイモジュールに表示される、請求項7に記載のヘッドマウント式コンピュータ装置。
- 請求項1乃至8のいずれか一項に記載のヘッドマウント式コンピュータ装置に情報を表示する方法であって、当該方法は、
1つ又は複数のセンサによって取得した信号及び/又はデータを受信するステップと、
前記ヘッドマウント式コンピュータ装置の装着者によって操作される1つ又は複数の医療装置によって生成された1つ又は複数の信号を受信するステップと、
前記1つ又は複数のセンサによって取得され、受信した信号及び/又はデータに基づいて、前記装着者の活動を特定するステップと、
前記装着者の特定された活動に対応する支援情報を前記ディスプレイモジュールに表示するステップと、を含み、
前記装着者の活動の特定は、前記1つ又は複数のセンサによって取得され、受信した信号及び/又はデータと、前記ヘッドマウント式コンピュータ装置の前記装着者によって操作される前記1つ又は複数の医療装置から受信したデータとの組合せに基づく、
方法。 - 前記ディスプレイモジュール上に示される、前記装着者の特定された活動に対応する情報を非表示にするステップをさらに含む、請求項9に記載の方法。
- 1つ又は複数の前記受信した信号の予め規定された閾値に基づいて、警告メッセージを前記ディスプレイモジュール上に表示させるステップをさらに含む、請求項9又は10に記載の方法。
- 前記ディスプレイモジュールに表示される前記支援情報は、前記装着者が前記1つ又は複数の医療装置に関して操作した操作活動の継続時間を含み、及び前記操作の継続時間が所定値よりも長い場合に、警告メッセージが前記ディスプレイモジュール上に表示される、請求項9乃至11のいずれか一項に記載の方法。
- プログラムコードを含むコンピュータプログラムであって、前記コンピュータプログラムがコンピュータ上で実行される場合に、前記コンピュータに請求項9に記載の方法のステップを実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14198927 | 2014-12-18 | ||
EP14198927.7 | 2014-12-18 | ||
PCT/EP2015/079042 WO2016096547A1 (en) | 2014-12-18 | 2015-12-09 | Head-mountable computing device, method and computer program product |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018502636A true JP2018502636A (ja) | 2018-02-01 |
Family
ID=52282431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017532667A Withdrawn JP2018502636A (ja) | 2014-12-18 | 2015-12-09 | ヘッドマウント式コンピュータ装置、その方法及びコンピュータプログラム製品 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20180014903A1 (ja) |
EP (1) | EP3234825A1 (ja) |
JP (1) | JP2018502636A (ja) |
KR (1) | KR20170095992A (ja) |
CN (1) | CN107810535A (ja) |
WO (1) | WO2016096547A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10799122B2 (en) * | 2015-06-14 | 2020-10-13 | Facense Ltd. | Utilizing correlations between PPG signals and iPPG signals to improve detection of physiological responses |
TW201835878A (zh) * | 2017-03-24 | 2018-10-01 | 美商外科劇院有限責任公司 | 用於在虛擬環境中進行訓練和協作的系統和方法 |
CN107340950B (zh) * | 2017-07-18 | 2020-12-01 | 深圳创维-Rgb电子有限公司 | 一种自动调整菜单界面位置的方法、vr设备及存储介质 |
KR102000552B1 (ko) * | 2018-02-20 | 2019-07-16 | 연세대학교 원주산학협력단 | 안면보호구 및 안면보호구의 구동 방법 |
CN109792573B (zh) * | 2018-12-26 | 2020-11-03 | 深圳市汇顶科技股份有限公司 | 佩戴检测方法、装置、可穿戴设备及存储介质 |
CN115240820A (zh) * | 2021-04-23 | 2022-10-25 | 中强光电股份有限公司 | 穿戴式装置及基于环境调整显示状态的方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152530A1 (en) | 2012-12-03 | 2014-06-05 | Honeywell International Inc. | Multimedia near to eye display system |
US9395543B2 (en) * | 2013-01-12 | 2016-07-19 | Microsoft Technology Licensing, Llc | Wearable behavior-based vision system |
US10288881B2 (en) * | 2013-03-14 | 2019-05-14 | Fresenius Medical Care Holdings, Inc. | Wearable interface for remote monitoring and control of a medical device |
US9483117B2 (en) * | 2013-04-08 | 2016-11-01 | Nokia Technologies Oy | Apparatus, method and computer program for controlling a near-eye display |
CN104055478B (zh) * | 2014-07-08 | 2016-02-03 | 金纯� | 基于视线追踪控制的医用内窥镜操控系统 |
-
2015
- 2015-12-09 KR KR1020177019635A patent/KR20170095992A/ko unknown
- 2015-12-09 JP JP2017532667A patent/JP2018502636A/ja not_active Withdrawn
- 2015-12-09 US US15/536,683 patent/US20180014903A1/en not_active Abandoned
- 2015-12-09 WO PCT/EP2015/079042 patent/WO2016096547A1/en active Application Filing
- 2015-12-09 EP EP15807875.8A patent/EP3234825A1/en not_active Withdrawn
- 2015-12-09 CN CN201580073820.6A patent/CN107810535A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3234825A1 (en) | 2017-10-25 |
CN107810535A (zh) | 2018-03-16 |
US20180014903A1 (en) | 2018-01-18 |
WO2016096547A1 (en) | 2016-06-23 |
KR20170095992A (ko) | 2017-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2022252723B2 (en) | Imaging modification, display and visualization using augmented and virtual reality eyewear | |
JP2018502636A (ja) | ヘッドマウント式コンピュータ装置、その方法及びコンピュータプログラム製品 | |
US20220331052A1 (en) | Cooperation among multiple display systems to provide a healthcare user customized information | |
US11080854B2 (en) | Augmented surgical reality environment | |
JP6987893B2 (ja) | 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法 | |
CN112384970A (zh) | 用于时间要求严格的生物医学应用的增强现实系统 | |
JP2019010513A (ja) | リアルタイム3次元(3d)心臓撮像におけるガラス状態ビューのためのシステム及び方法 | |
US11351312B2 (en) | Use of infrared light absorption for vein finding and patient identification | |
WO2017151904A1 (en) | Methods and systems for anatomical image registration | |
JP2015093147A (ja) | 医療システム | |
CN114081631B (zh) | 健康监测系统及手术机器人系统 | |
KR20150126138A (ko) | 코 또는 그 주변의 혈관을 가시화하는 혈관 가시화 장치 및 방법 | |
US20220096004A1 (en) | System for visualizing patient stress | |
JP7345866B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
EP4345838A1 (en) | Visualizing an indication of a location in a medical facility | |
JP2024513991A (ja) | トリガイベントに基づいて術野のディスプレイオーバーレイを変更するためのシステム及び方法 | |
CN117479896A (zh) | 包括可在组织穿透外科装置的通道外展开的相机阵列的系统 | |
EP4178473A1 (en) | System comprising a camera array deployable out of a channel of a tissue penetrating surgical device | |
EP3763287A1 (en) | Patient controlled medical system | |
CN117461093A (zh) | 基于触发事件来改变外科视野的显示叠加项的系统和方法 | |
WO2018161894A1 (zh) | 一种用于远程康复系统的动作指示处理方法及装置 | |
CN118160044A (zh) | 叠加数据和配置的定制 | |
WO2022219491A1 (en) | System and method for tracking a portion of the user as a proxy for non-monitored instrument | |
CN117441212A (zh) | 用渲染元素将混合直接可视化以显示混合元素以及在屏幕上和在屏幕外正在发生的动作 | |
CN117546253A (zh) | 协作以增加复杂数据馈送的有效感知的混合现实反馈系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181206 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20190228 |