JP2017533487A - 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム - Google Patents

医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム Download PDF

Info

Publication number
JP2017533487A
JP2017533487A JP2017508560A JP2017508560A JP2017533487A JP 2017533487 A JP2017533487 A JP 2017533487A JP 2017508560 A JP2017508560 A JP 2017508560A JP 2017508560 A JP2017508560 A JP 2017508560A JP 2017533487 A JP2017533487 A JP 2017533487A
Authority
JP
Japan
Prior art keywords
image
user interface
display
gesture
present application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017508560A
Other languages
English (en)
Other versions
JP2017533487A5 (ja
Inventor
ジラクネジャド、ニマ
ホマユーン、ベラング
ロウレンス、ピーター
ミング−テ リウ、デイビッド
ミング−テ リウ、デイビッド
Original Assignee
ザ・ユニバーシティ・オブ・ブリティッシュ・コロンビア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ・ユニバーシティ・オブ・ブリティッシュ・コロンビア filed Critical ザ・ユニバーシティ・オブ・ブリティッシュ・コロンビア
Publication of JP2017533487A publication Critical patent/JP2017533487A/ja
Publication of JP2017533487A5 publication Critical patent/JP2017533487A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

システムは、医療従事者が医療処置中に、医療関連情報とインタラクトすることを可能にする。このシステムは、ユーザインタフェースメニュー画像を投影面上に投影するためのプロジェクタと、投影面を含む検知ボリューム内の物体の3次元位置情報をキャプチャするための3次元光学撮像システムと、3次元光学撮像システムから3次元位置情報を受け取するべく接続され、3次元光学撮像システムと投影面との間の空間において医療従事者によって作られる1つまたは複数のジェスチャーを、投影されるユーザインタフェースメニュー画像に対するジェスチャーの位置に基づいて解釈するように構成されているコントローラとを備える。このコントローラは、ディスプレイに画像をレンダリングさせるべく、ディスプレイに接続可能であり、ディスプレイに、解釈されたジェスチャーに少なくとも部分的に基づく医療関連情報を含む画像をレンダリングさせるように構成されている。

Description

[関連出願]
本出願は、参照によって本明細書に組み込まれる、2014年8月15日に申請された米国特許出願第62/038157号の利益および優先権を主張する。
本明細書で開示される技術は、医療処置を実施するための方法およびシステムに関連し、医療処置中にあれば望ましいことがある医療関連情報とインタラクトするための方法およびシステムに関連する。
医療処置(例えば、外科的処置など)実施中に、医療従事者(例えば、外科医、介入放射線科医師、看護師、医療助手、他の医療技師など)に対し、医療関連情報を操作、および/または、そうでなければ、インタラクトするための手段または能力を提供することへの需要が存在する。そのような所望の医療情報は、非限定的な例であるが、患者の身体の放射線画像、血管造影画像、および、他の形態の画像、医療処置を受ける患者に関連する他の情報、処置自体に関連する他の情報、ならびに、治療が行われる条件に関連する他の情報などを含み得る。そのような所望の医療情報は、処置を実施する前および/または処置を実施する間に取得され得て、医療従事者が画像誘導医療処置の間に治療計画を策定または変更することを可能にし得る。
現在、放射線画像を操作、および/または、インタラクトするための処置中アクセスが、手術用無菌環境の外に位置する制御室内のコンピュータワークステーション上で行われている。そのようなワークステーションは、適切なネットワーク通信または他のデジタルアクセス技術を介して、画像保管通信システム(PACS)、医用デジタル画像・通信システム(DICOM)、病院情報システム(HIS)、放射線医学情報システム(RIS)などにアクセスすることによって、患者に関連する画像データのアーカイブにアクセスし得る。そのようなワークステーションは次に、適切なディスプレイ上に個別の画像を表示し得て、従来のコンピュータベースのユーザインタフェースを介して(例えば、マウスおよびキーボード、ならびに、ソフトウェアで実施されるユーザインタフェースを使用することで)画像を操作することを可能にし得る。ワークステーションは、手術用無菌環境の外に位置するので、様々な画像にアクセスしたい放射線科医師は通常、(a)処置中に1回または複数回、処置を中止すること、または、(b)所望の画像にアクセスする作業を技師に任せること(その技師は、放射線科医師の指示の下でワークステーションを操作する必要がある)のうち、いずれかを行う必要がある。
(a)の場合、画像誘導および解釈の目的で、非無菌制御室と無菌手術環境との間を行き来する必要があるので、非無菌制御室から無菌環境へと汚染物質を意図せず移すことで無菌環境を汚染するリスクが増加すること、手術を完了するのに必要な時間が延びること、それにより、処置費用が増加すること、および/または、医療従事者の認知的焦点に干渉し、それにより、患者に対する医療リスクを増加させることが起こり得る。(b)の場合、通常、放射線科医師と、ワークステーションを操作する技師との間の緊密なコミュニケーションが必要になる。関連情報についてのコミュニケーション(例えば、画像をどのように移動または拡大するか)は難しく、時間がかかり、複数の反復が必要となり得る。このプロセスは、異なるソフトウェアプラットフォームを使用すること、ベンダー固有の多層メニューを移動すること、キーボードおよびマウスを使用して3次元画像とインタラクトすることを行う必要性から、より難しくなり得る。
処置中の計画および標的治療の確認を行うときに、多くの放射線画像に頼ることが増加するに伴い、放射線科医師が無菌環境中で直観的、包括的、および、適時に大量の画像情報(および/または他の医療関連情報)に迅速にアクセスし、それらを操作し、および/または、そうでなければ、それらとインタラクトする能力を改善する解決策の考案に対する需要が一般的に存在する。
上述の関連技術の例、および、それらに関連する制限は、例示を意図するものであり、限定を意図とするものではない。関連技術の他の制限は、当業者が明細書を読み、図面を検討することによって理解できるであろう。
以下の実施形態およびそれらの態様は、システム、器具、および、方法と共に記載および図示されているが、これらは例示および説明を目的としたものであり、範囲の限定を目的としたものではない。様々な実施形態において、上述の問題の1つまたは複数は、減少または消失しているが、他の実施形態は、他の改善を目的としている。
本発明の態様は、投影されたユーザインタフェースメニュー画像とインタラクトするべく、医療従事者がジェスチャー(例えば、非接触式ジェスチャー)を使用して、医療処置中に医療関連情報のアクセス、操作、および/または、そうでなければ、インタラクトすることを可能にするシステムおよび方法を提供する。ジェスチャーは、医療従事者の手の形、位置、または、動きに基づき得る。ジェスチャーは、投影されるユーザインタフェースメニュー画像(および/または、ユーザインタフェースメニュー画像が投影される投影面)に対するジェスチャーの位置(例えば、医療従事者の手の位置)に基づいて解釈され得る。ジェスチャーは追加的または代替的に、ジェスチャーの形または動き(例えば、医療従事者の手の形または動き)に基づき得る。そのようなジェスチャーの動きまたは形は、投影されるユーザインタフェースメニュー画像(および/または、ユーザインタフェース画像が投影される投影面)に対するものであり得る。そのようなシステムおよび方法は、処置が実施されている無菌環境から医療従事者が出る必要なく、および、無菌環境の外に位置する技師と連絡する必要なく、この機能を提供する。例として、医療処置中にアクセス、操作、および/または、そうでなければ、インタラクトされる医療関連情報は、患者の身体の放射線画像、血管造影画像、および、他の形態の画像、または、医療処置を受けている患者および処置自体に関連する他の情報などを含み得る。このシステムは、医療従事者が見ることに適した投影面上にユーザインタフェースメニュー画像を投影するための投影デバイス(この投影面は、無菌環境内に位置する)と、医療従事者が、投影されるユーザインタフェースメニュー画像とインタラクトする手段(例えば、投影されるユーザインタフェースメニュー画像に対する位置でジェスチャーを使用する)に関する3D情報をキャプチャするための3次元(3D)光学撮像センサまたはシステムとを備え得る。そのような3D光学センサ/システムの非限定的な例には、所謂、タイムオブフライト(TOF)撮像システム(レンジ撮像システムとも呼ばれる)、位相変調3D光学センサシステム、構造化光機構(例えば、スペックルパターン)に基づく3D光学センサなどを含む。
3D光学撮像システムに接続されたコントローラは、ユーザインタフェースメニュー画像に対する、および/もしくは、ユーザインタフェースメニュー画像が投影される投影面に対する、医療従事者の一方の手の動き、形、ならびに/または、位置を含むジェスチャーを解釈し得る。そのようなジェスチャーの解釈に基づいて、コントローラはディスプレイに、医療従事者に見える画像(または他の情報)をレンダリングさせ得る。表示画像は、処置が実施されている患者に関する画像のライブラリからの画像または画像の一部を含み得る。そのようなジェスチャーの解釈に基づいて、コントローラは、表示画像を操作し得る。例えば、そのような操作は、特定の表示画像に関するズームインまたはズームアウトと、特定の表示画像の表示部分のパンニングまたはそうでなければ移動と、特定の表示画像の輝度、コントラスト、および/または、色パラメータの調節と、表示する新しい画像を選択するための、画像のライブラリのスクロールと、その他同種のものとを含み得る。
投影面はほぼ横方向(水平)であり得る。医療従事者は、ほぼ横方向の投影面と3D光学撮像システムとの間の空間で一方の(または両方の)手のジェスチャーを使用して、システムとインタラクトし、そのようなジェスチャーは、投影されるユーザインタフェースメニュー画像に対する、および/または、ユーザインタフェースメニュー画像が投影される投影面に対する、医療従事者の手の位置に基づいて解釈され得る。投影面は、処置を実施されている患者が位置する手術台の一部を含み得る。投影されるユーザインタフェースメニュー画像が手術台の一部に(例えば、手術台の端と交差することなく)適合するように、投影されるユーザインタフェースメニュー画像のサイズは、(3D光学撮像システムによって獲得されたデータに基づいて)調節可能であり得る。投影面は、非限定的な例であるが、患者の身体の存在、および、いずれかの投影面(例えば、手術台)の被覆の状態などに基づいて、不規則(例えば、非平面、または、完全ではないがほぼ横方向)であり得る。投影面の不規則性の形状は、3D光学撮像システムによって獲得されたデータに基づいて判定され得て、投影されるユーザインタフェースメニュー画像は、投影面の不規則性を補償するように調節され得る。投影面の反射率および/または色は、3D光学撮像システムによって、または、他のいずれかの適切な撮像システム(例えば、カラーカメラ)によって獲得されたデータに基づいて推定され得て、投影されるユーザインタフェースメニュー画像は、投影面の反射率および/または色を補償するように調節され得る。
ジェスチャーの解釈に基づいて、コントローラは、ユーザインタフェースをいつ投影するか、および、ユーザインタフェースをいつ投影しないか決定し得る。
本発明の他の態様は、1つまたは複数のプロセッサを備えるシステムを提供し、当該プロセッサは、本発明のいずれかの態様による方法を実施するように構成されている。
本発明の他の態様は、不揮発性媒体に具現化された、コンピュータ可読命令を含むコンピュータプログラム製品を有する。コンピュータ可読命令が、適切なコンピュータまたはプロセッサによって実行されると、当該コンピュータまたはプロセッサは、本発明のいずれかの態様による方法を実施する。
上述の例示的な態様および実施形態に加え、図面を参照することにより、および、以下の詳細な記載を検討することにより、更なる態様および実施形態が明らかになるであろう。
例示的な実施形態は、図面の参照される図に示されている。本明細書で開示される実施形態および図は、限定する意図ではなく、例示的な意図に過ぎないと見なされるべきである。
特定の実施形態による、医療処置を実施するための、ならびに、医療関連情報のアクセス、操作、および/または、そうでなければ、インタラクションのためのシステムの概略図である。
特定の実施形態において、図1のシステムで使用され得るユーザインタフェースメニュー画像の概略図である。
は、特定の実施形態による、図1のシステム内で使用され得るTOF撮像システム(すなわち、3D光学撮像システムの例)の概略図を示す。 図3AのTOF撮像システムの検知ボリュームを概略的に示す。 図3AのTOF撮像システムの検知ボリュームを概略的に示す。
特定の実施形態による、医療従事者が一方の手を使用して作るジェスチャーを解釈するための方法の概略図である。
いくつかの実施形態における、TOF撮像システム(または他の3D光学撮像システム)の積分時間を調節するべく使用され得る対象領域を示す。 いくつかの実施形態における、TOF撮像システム(または他の3D光学撮像システム)の積分時間を調節するべく使用され得るルックアップテーブルプロットを示す。
特定の実施形態による、図4の方法の一部を実施するのに使用され得る方法211の概略図である。
特定の実施形態による図6の方法で使用され得るユーザインタフェースメニュー画像およびユーザインタフェースサブメニュー画像の概略図である。
当業者がより詳しく理解できるようにするべく、以下の記載全体を通して、具体的な詳細を説明する。しかし、不必要に開示を曖昧にすることを回避するべく、既知の要素は示されていない、または、詳細に記載されていないことがある。したがって、記載および図面は、限定的な意味ではなく、例示的な意味であると見なされるべきである。
本発明の態様は、医療従事者が医療処置中に、ジェスチャー(例えば、非接触式ジェスチャー)を使用して、投影されるユーザインタフェースメニュー画像とインタラクトすることで、医療関連情報のアクセス、操作、および/または、そうでなければ、インタラクションを実施することを可能にするシステムおよび方法を提供する。ジェスチャーは、医療従事者の手の形、位置、または動きに基づき得る。別段の記載が無い限り、本明細書で使用されている、医療従事者の手のジェスチャーへの言及は、手に含まれる、医療従事者の指の1つまたは複数に基づくジェスチャーを含むものと理解すべきである。ジェスチャーは、投影されるユーザインタフェースメニュー画像(および/または、ユーザインタフェースメニュー画像が投影される投影面)に対するジェスチャーの位置(例えば、医療従事者の手の位置)に基づいて解釈され得る。ジェスチャーは追加的または代替的に、ジェスチャーの形または動き(例えば、医療従事者の手の形または動き)に基づき得る。そのようなジェスチャーの動きまたは形は、投影されるユーザインタフェースメニュー画像(および/または、ユーザインタフェース画像が投影される投影面)に対するものであり得る。そのようなシステムおよび方法は、処置が実施されている無菌環境から医療従事者が出る必要なく、および、無菌環境の外に位置する技師と連絡する必要なく、この機能を提供する。例として、医療処置中にアクセス、操作、および/または、そうでなければ、インタラクトされる医療関連情報は、患者の身体の放射線画像、血管造影画像、および、他の形態の画像、または、医療処置を受けている患者および処置自体に関連する他の情報などを含み得る。このシステムは、医療従事者が見ることに適した投影面上にユーザインタフェースメニュー画像を投影するための投影デバイス(この投影面は、無菌環境内に位置する)と、医療従事者が、投影されるユーザインタフェースメニュー画像とインタラクトする手段(例えば、投影されるユーザインタフェースメニュー画像に対する位置でジェスチャーを使用する)に関する3D情報をキャプチャするための3次元(3D)光学撮像センサまたはシステムとを備え得る。そのような3D光学センサ/システムの非限定的な例は、所謂、タイムオブフライト(TOF)撮像システム(レンジ撮像システムとも呼ばれる)、位相変調3D光学センサシステムなどを含む。
3D光学撮像システムに接続されたコントローラは、ユーザインタフェースメニュー画像、および/または、ユーザインタフェースメニュー画像が投影される投影面に対する医療従事者の一方の手の動き、形、および/または位置を含むジェスチャーを解釈し得る。そのようなジェスチャーの解釈に基づいて、コントローラはディスプレイに、医療従事者に見える画像(または他の情報)をレンダリングさせ得る。表示画像は、処置が実施されている患者に関する画像のライブラリからの画像または画像の一部を含み得る。そのようなジェスチャーの解釈に基づいて、コントローラは、表示画像を操作し得る。例えば、そのような操作は、特定の表示画像に関するズームインまたはズームアウトと、特定の表示画像の表示部分のパンニングまたはそうでなければ移動と、特定の表示画像の輝度、コントラスト、および/または、色パラメータの調節と、新しい画像を選択して表示するための、画像のライブラリのスクロールと、その他同種のものとを含み得る。
投影面はほぼ横方向であり得る。医療従事者は、ほぼ横方向の投影面と3D光学撮像システムとの間の空間で一方の(または両方の)手のジェスチャーを使用して、システムとインタラクトし得、そのようなジェスチャーは、投影されるユーザインタフェースメニュー画像に対する、および/または、ユーザインタフェースメニュー画像が投影される投影面に対する、医療従事者の手の位置に基づいて解釈され得る。投影面は、処置を実施されている患者が位置する手術台の一部を含み得る。投影されるユーザインタフェースメニュー画像が手術台の一部に(例えば、手術台の端と交差することなく)適合するように、投影されるユーザインタフェースメニュー画像のサイズは、(3D光学撮像システムによって獲得されたデータに基づいて)調節可能であり得る。投影面は、非限定的な例であるが、患者の身体の存在、および、いずれかの投影面(例えば、手術台)の被覆の状態などに基づいて、不規則(例えば、非平面、または、完全ではないがほぼ横方向)であり得る。投影面の不規則性の形状は、3D光学撮像システムによって獲得されたデータに基づいて決定され得て、投影されるユーザインタフェースメニュー画像は、投影面の不規則性を補償するように調節され得る。投影面の反射率および/または色は、3D光学撮像システムによって、または、いずれかの他の適切な撮像システム(例えば、カラーカメラ)によって獲得されたデータに基づいて推定され得て、投影されるユーザインタフェースメニュー画像は、投影面の反射率および/または色を補償するように調節され得る。
ジェスチャーの解釈に基づいて、コントローラは、ユーザインタフェースをいつ投影するか、および、ユーザインタフェースをいつ投影しないか決定し得る。
図1は、特定の実施形態による、医療処置を実施するための、ならびに、医療関連情報のアクセス、操作、および/または、そうでなければ、インタラクションのためのシステム10の概略図である。システム10は、無菌環境16内で患者14に実施されている医療処置中に、医療従事者12が、医療関連情報のアクセス、操作、および/または、そうでなければ、インタラクションを行うことを可能にする。システム10は、医療従事者12がジェスチャー(例えば、非接触式ジェスチャー)を使用して、投影されたユーザインタフェースメニュー画像22とインタラクトし、ディスプレイ24上に表示され得る画像のアクセス、操作、および/または、そうでなければ、インタラクションを行うことを可能にする。ジェスチャーは、医療従事者の手12Aの形、位置、または、動きに基づき得る。ディスプレイ24に表示される表示画像は、医療関連情報を有し得て、当該医療関連情報は、患者の身体の放射線画像、血管造影画像、および、他の形態の画像、医療処置を受けている患者に関連する他の情報、ならびに、処置自体に関連する他の情報などを含み得る。医療従事者12が、表示画像によって提供される医療情報を見ることを可能にするべく、ディスプレイ24は、無菌環境16内の医療従事者12から容易に見られ得る。図1の概略図において、医療処置が実施されている無菌環境16は、概念上の線20によって、(例えば、おそらく非無菌環境である)外部環境18から隔離されている。示されている実施形態において、ディスプレイ24は、無菌環境16内に位置するが、これは必須ではない。
図1の実施形態のシステム10は、処置中に患者14が位置する手術台(またはベッド)28の上の位置、または、他のいずれかの適切な位置で支持され得るユーザインタフェースデバイス26を備える。詳細は後述するが、図1で示されている実施形態において、ユーザインタフェースデバイス26は、ユーザインタフェースデバイス26の動作を制御するためのコントローラ30と、医療従事者12が投影されているユーザインタフェースメニュー画像22とインタラクトするための手段(例えば、医療従事者12のジェスチャーを含む)に関する3D情報をキャプチャするための3D光学撮像システム32と、ユーザインタフェースメニュー画像22を、医療従事者12が見てインタラクトすることに適切な投影面38に投影するためのプロジェクタ34と、医療関連情報のアーカイブと通信するための通信用インタフェース36(例えば、適切なネットワーク通信または他のデジタルアクセス技術)とを有する。いくつかの実施形態において、ユーザインタフェースデバイス26は、調節可能な手術用アーム40(例えば、天井42、壁、床に取り付けられた支柱などに取り付けられる)によって、手術台28の上の位置において支持され得る。これにより、ユーザインタフェースメニュー画像22が表示される投影面38、および/または、3D光学検知システム32の撮像ボリュームの調節に対応する、ユーザインタフェースデバイス26の位置の調節が容易になり得る。上述のように、3D光学撮像システム32は、例えば、医療従事者12のジェスチャー(例えば、医療従事者の手12A)など、医療従事者12が、投影されるユーザインタフェースメニュー画像22とインタラクトする手段に関する3D情報をキャプチャする。非限定的な例であるが、3D光学撮像システム32は、タイムオブフライト(TOF)撮像システム(レンジ撮像システムとも呼ばれる)、位相変調3D光学センサシステム、および/または、検知ボリュームに関する同様の3D情報を提供できる、他のいずれかのシステムを備え得る。便宜上、これ以降の記載では、一般性を失うことなく、3D光学撮像システム32を、TOFセンサ32と称し得る。
コントローラ30は、適切なコンピュータシステムのコンポーネントを含み得る。一般的に、コントローラ30は、例えば、適切に構成された汎用プロセッサ、グラフィックスプロセッシングユニット(GPU)、グラフィックスプロセッシングシステム、マイクロプロセッサ、マイクロコントローラ、デジタルシグナルプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、他のタイプのプログラマブルロジックデバイス、複数の上述したもの、上述したものの組み合わせなど、適切に構成されたいずれかのプロセッサを含み得る。コントローラ30は、(例えば、示されている実施形態のように、ユーザインタフェースデバイス26内に)組み込まれ得るが、これは必須ではない。コントローラ30は、コントローラ30がアクセス可能なコンピュータ可読メモリ内(明示的に図示せず)に保存され得るソフトウェア、および/または、コントローラ30に内蔵されているコンピュータ可読メモリにアクセスできる。コントローラ30は、そのようなソフトウェア命令を読み込んで実行するように構成され得て、そのようなソフトウェアは、コントローラ30によって実行されると、本明細書に記載された機能のいくつかをコントローラ30に実施させ得る。コントローラ30は、複数のネットワーク接続型コンピュータもしくはプロセッサ、または、そうでなければ、互いに通信する複数のコンピュータもしくはプロセッサを含み得る。
コントローラ30は、プロジェクタ34の動作を制御して、ユーザインタフェースメニュー画像22を投影面38上に投影する。示されている実施形態において、投影面38は、無菌環境16に位置し、医療従事者12が見て、インタラクトすることに適している。いくつかの実施形態において、投影面38は、ほぼ横方向の表面を含み得るが、これは必須ではない。示されている図1の実施形態におけるシステム10の場合、投影面38は、患者14が位置する手術台28の部分28Aを含む。手術台28の部分28Aを投影面38として選択することで、医療従事者12は、患者14への自身の集中を維持することが可能になる。いくつかの実施形態において、処置を実施する、または補助する医療従事者12の比較的近くに位置し得るサイドテーブル(例えば、処置用の装置が位置するテーブルなど)などの横方向の面が投影面38に選択され得る。図2は、特定の実施形態による、投影面38上に投影されているユーザインタフェースメニュー画像22の描画を示す。ユーザインタフェースメニュー画像22は、複数のユーザインタフェース画像セクション50を含む。図2の実施形態において、ユーザインタフェースメニュー画像22は、4つのユーザインタフェース画像セクション50A−50Dを含むが、一般的に、ユーザインタフェースメニュー画像22は、いずれかの適切な数のユーザインタフェース画像セクション50を含み得る。ユーザインタフェース画像セクション50は各々、対応する機能(または対応するメニューの選択肢)に関連付けられ得て、対応する機能/メニューの選択肢に関連するグラフィックおよび/またはテキスト情報を含み得る。
例えば、図2の実施形態の場合、ユーザインタフェース画像セクション50の各々は、対応する機能に関連付けられている。具体的には、ユーザインタフェース画像セクション50Aは、(例えば、ディスプレイ24上で表示するための画像間での)スクロールに関連付けられ、このスクロール機能に関連付けられたグラフィックアイコン52Aを示す。ユーザインタフェース画像セクション50Bは、ディスプレイ24上で表示されている特定の画像におけるパンニングまたは移動に関連付けられており、このパンニング機能に関連付けられているグラフィックアイコン52Bを示す。ユーザインタフェース画像セクション50Cは、ディスプレイ24上で表示されている特定の画像の輝度を調節することに関連付けられられており、この輝度調節機能に関連付けられたグラフィックアイコン52Cを示す。ユーザインタフェース画像セクション50Dは、ディスプレイ24上に表示されている特定の画像のズームインおよびズームアウトに関連付けられており、このズームインおよびズームアウト機能に関連付けられたグラフィックアイコン52Dを示す。当業者であれば、本明細書で提供されている記載に基づいて、他の機能がユーザインタフェース画像セクション50に関連付けられ得ること、および、異なる数の機能を可能にするべく、異なる数のユーザインタフェース画像セクション50が提供され得ることを理解できるであろう。これらの機能に加えて、または、これらの機能の代わりに、ユーザインタフェースメニュー画像22は、より古典的なテキストベースメニューまたはグラフィカルメニューを含み得る。この場合、1つまたは複数のユーザインタフェース画像セクション50は、メニューの選択肢に対応する。
詳細は後述するが、システム10は、医療従事者12が、適切なジェスチャーを作ることによってユーザインタフェースメニュー画像22とインタラクトする能力を提供し、これにより、ユーザインタフェース画像セクション50の1つを選択すること、および、対応する機能/メニューの選択肢を選択することを容易にする。選択された機能、または、選択されたメニューの選択肢の中で、システム10は、ディスプレイ24上に表示されている画像のアクセス、操作、および/または、そうでなければ、インタラクションを行うための選択された機能を医療従事者12が実施することで、メニューの選択肢に対応する動作(例えば、サブメニューのアクティブ化)などを実施することを可能にする。例えば、システム10は、医療従事者12が、画像ディスプレイセクション50Aおよびその対応するスクロール機能を選択するのに適切なジェスチャーを使用することで、図2の実施形態のユーザインタフェースディスプレイセクション50Aに関連付けられたスクロール機能を選択することを可能にする。次に、そのような選択の後で、システム10は、医療従事者12が適切な更なるジェスチャーを使用して、ディスプレイ24上に表示される画像間でスクロールすることを可能にする。いくつかの実施形態において、システム10によって認識されるジェスチャーは、医療従事者12の一方の(または両方の)手12Aで作られるジェスチャーを含む。
コントローラ30は、TOF撮像システム32の動作を制御する。TOF撮像システム32は、図3Aに概略的に示されている。当技術分野で知られているように、TOF撮像システム32は、1つまたは複数の適切な放射源64(例えば、LEDまたはレーザ)からセンサボリューム60へと電磁放射(例えば、赤外線放射および/または近赤外線放射)を投影し、そのような物体62から反射される放射に基づく、適切な光検出器66(例えば、光ダイオード検出素子、CCDセンサ素子、CMOS検出素子などを含む)によって検出された、センサボリューム60内の物体62に対応する3D画像情報をキャプチャする。図3Aは、TOF撮像システム32の軸中心69を示す。システム10は、いずれかの適切なTOF撮像システムおよび/またはデバイス32を含み得る。本明細書の他の箇所で記載されているように、システム10は、TOFシステム32を使用することに特に限定されているものではなく、TOFシステム32の機能は、位相変調3D光学センサシステム、および/または、検知ボリューム60の付近の同様の3D情報を提供できる他のいずれかの3D光学撮像システムによって提供され得る。
TOF撮像システム32は、センサボリューム60内に位置する物体62の面上の点の3D位置を含む、3D点群を返す。図1の実施形態において、TOF撮像システム32は、ユーザインタフェースメニュー画像22がプロジェクタ34によって投影される投影面38をセンサボリューム60が含むように、配置され得るか、そうでなければ、構成され得る(例えば、適切な光学装置などを使用して方向付けられている、または構成されている)。センサボリューム60の軸中心69は、投影面38と(例えば、投影面38の中心と)ほぼ揃うように構成され得る。上述のように、投影面38は、手術台28の部分28Aを含み得る。この構成において、TOFシステム32は、ユーザインタフェースメニュー画像22が投影される投影面38上の点の3D位置を含む点群を返す。TOF撮像システム32は、センサボリューム60が、投影面38の上の(または、そうでなければ、隣の)、投影面38とTOF撮像システム32との間の空間68を含むように、同様に構成され得る。例えば、投影面38は、手術台28の部分28Aを含み、空間68は、手術台28の上の、手術台28とユーザインタフェースデバイス26との間のボリュームを含み得る。この構成において、医療従事者12は、空間68内で、一方の(または両方の)手12Aを使用してジェスチャーを作り得て、TOF撮像システム32は、医療従事者の手12Aの表面上の点の3D位置を検出し得る。詳細は後述するが、医療従事者の手12Aに関する、当該3D情報は、医療従事者12が、投影されているユーザインタフェースメニュー画像22とインタラクトし得るためのジェスチャーとして解釈され得る。投影面38とTOF撮像システム32との間のこの空間68には、医療処置を実施するべく、医療従事者の手12Aが位置し、それにより、システム10とのインタラクションが人間工学的に容易になるので、この空間68は、医療従事者12が手12Aでジェスチャーを作り得る空間として使用するのに便利であり得る。
図3Bは、特定の実施形態による、TOF撮像デバイス32の検知ボリューム60および空間68(投影面38とTOF撮像デバイス32との間)の概略的な側面図である。空間68は、TOF撮像デバイス32の基準面70(例えば、光検出器66の平面(図3A))と、ユーザインタフェースメニュー画像22が投影される投影面38との間で、複数のボリューム領域に分割され得る。示されている実施形態において、これらのボリューム領域は、基準面70と第1閾値表面72との間に位置するボリューム領域82と、閾値表面72と閾値表面74との間に位置するボリューム領域84と、閾値表面74と投影面38との間に位置するボリューム領域86とを含む。閾値表面72、74は、投影面38に対して、コントローラ30によって設定され得て、構成され得る(例えば、ユーザ構成可能)。基準面72は、投影面38(または、投影面38の平均的な高さ)から(例えば上に)距離d1の位置に設定され得て、基準面74は、投影面38(または、投影面38の平均的な高さ)から(例えば上に)距離d2の位置に設定され得る。距離d1およびd2は、例えば、医療従事者12の身長、または、身体的特徴に応じて構成され得る。そのような実装において、ボリューム領域82は、投影面38からd1より大きい距離に対応し、ボリューム領域84は、投影面38からd2とd1の間の距離に対応し、ボリューム領域86は、投影面38から距離d2より小さい距離に対応する。
投影面38が手術台28の部分28A上に位置するとき(図1)、投影面38は、不規則な形状を有し得る(例えば、図3Bで示されているような平面と異なる、および/または、横方向と異なる)ことが理解されるべきである。いくつかの実施形態において、コントローラ30が閾値レベル72、74を設定するとき、投影面38のそのような不規則な形状が考慮され得る。すなわち、閾値レベル72、74は、投影面38における不規則性に対応し、距離d1およびd2をほぼ一定に維持するように、断面にわたって、可変の形状を有し得る。非限定的な例であるが、表面曲率解析技術がこの目的で使用され得る。いくつかの実施形態において、これは必要ではなく、閾値レベル72、74は、投影面38の形状の平均に基づいて(例えば、投影面38上の点から選択された1つまたは複数に基づいて)、投影面38の他のいずれかの特性に基づいて、および/または、投影面38に関連付けられた基準に基づいて、一定に設定され得る。非限定的な例であるが、いくつかの実施形態において、システムは、TOF撮像デバイス32および/またはユーザインタフェースデバイス26にもっとも近い、投影面38上の点に対する閾値レベル72、74を設定し得る。単純化するべく、本記載では以降、別段の記述が無い限り、閾値レベル72、74は、投影面38に対するものとして記載され得る。このことは、投影面38に対応するいずれかの適切な基準(例えば、投影面38の平均、投影面38上の点など)に対する任意のものであることを意味し得る。いくつかの実施形態において、閾値レベル72、74は、医療従事者12の手12Aのジェスチャーを確認するのに使用され得て、プロジェクタ34をオンにするかオフにするか決定するのに、および/または、上述のユーザインタフェース画像セクション50に関連付けられている機能の1つを選択するのに使用され得る。
図4は、特定の実施形態による、医療従事者12が一方の手12Aを使用して作るジェスチャーを解釈するための方法100の概略図である。方法100は、ユーザインタフェースデバイス26によって実施され得る。特定の実施形態において、方法100は、(TOF撮像システム32およびプロジェクタ34と共に)コントローラ30によって実施され得る。図4の実施形態の方法100は、投影切り替えジェスチャーが検出されたかどうか問い合わせることを伴う、ブロック102から開始する。ブロック102は、特定の投影切り替えジェスチャーを見つけるべく、TOF撮像システム32から受信されたデータを解析するコントローラ30を含み得る。いくつかの実施形態において、この投影切り替えジェスチャーは、医療従事者12の手12Aが最初に、閾値72より投影面38から遠く(例えば、投影面38の上方であって、投影面38から距離d1よりも離れた位置)に位置し、次に、閾値72より投影面38に近い位置(例えば、投影面38の上方であって、投影面38から距離d1よりも近い位置、および/または、投影面38の上方であって、投影面38から距離d1よりも近くて、投影面38から距離d2よりも離れた位置など)に移動したことを検出することを含み得る(図3Bを参照)。いくつかの実施形態において、この投影切り替えジェスチャーは、医療従事者12の手12Aの左右への動き(例えば、手を振る)を含み得る。いくつかの実施形態において、この投影切り替えジェスチャーは、医療従事者12が、適切な数の指(例えば5本の指)を延ばしたままで、手12Aを静止した状態で維持することを含み得る。ブロック102での問い合わせがネガティブである場合、方法100は、ブロック102に戻る。一方、ブロック102での問い合わせがポジティブである場合、次に、方法100は、ブロック104に進む。いくつかの実施形態において、切り替えジェスチャーおよびブロック102での問い合わせは必須ではない。例えば、従来の切り替え、リモート制御アクティブ化などは、方法100を開始するための切り替えジェスチャーの代わりに使用され得る。
ブロック104は、ユーザインタフェースメニュー画像22を投影面38上に投影することを含む。本開示の他の箇所に記載されているように、ブロック104において、コントローラ30は、プロジェクタ34に、ユーザインタフェースメニュー画像22を投影面38上に投影させ得る。次に、方法100はブロック106へ進み得る。ブロック106は、選択ジェスチャーが作られているかどうか問い合わせることを伴い得る。ブロック106の選択ジェスチャーは、ブロック104において投影されたユーザインタフェースメニュー画像22内のユーザインタフェース画像セクション50の1つに関連付けられた機能またはメニューの選択肢を選択することを含み得る。いくつかの実施形態において、ブロック106の選択ジェスチャーは、医療従事者12の手12Aが、閾値74より投影面38の近く(例えば、投影面38の上方であって、投影面38から距離d2よりも近い位置、または、投影面38に接する位置)に位置することを検出することを含み得る。また、そのようなジェスチャーは、ユーザインタフェース画像セクション50に関連付けられた機能および/またはメニューの選択肢の中から1つを選択することを指示し得る。ブロック106の問い合わせがポジティブである場合、いくつかの実施形態において、医療従事者12の手12Aが閾値74より投影面38の近くに位置することが検出されたとき、選択された機能またはメニューの選択肢の特定の1つは、手12Aが上に位置する(または、もっとも近くに位置する)ユーザインタフェース画像セクション50の特定の1つに対応し得る。例えば、図2の実施形態を参照すると、医療従事者12の手12Aが投影面38と閾値74との間、および、ユーザインタフェース画像セクション50DとTOF撮像システム32との間(例えば、閾値74より下で、ユーザインタフェース画像セクション50Dより上(または、それにもっとも近く))に位置することがブロック106で検出された場合、選択された特定の機能は、ユーザインタフェースセクション50Dに関連付けられたズーム機能に対応し得る。図2の実施形態に対応する他の例として、医療従事者12の手12Aが、投影面38と閾値74との間、および、ユーザインタフェース画像セクション50AとTOF撮像システム32との間(例えば、閾値74より下で、ユーザインタフェース画像セクション50Aより上(または、それにもっとも近く))に位置することがブロック106で検出された場合、選択された特定の機能は、ユーザインタフェースセクション50Aに関連付けられたスクロール機能に対応し得る。図2の実施形態に対応するジェスチャーの他の例として、医療従事者12の手12Aが、ユーザインタフェース画像セクション50AとTOF撮像システム32との間に位置すること、および、医療従事者が特定の数の指(例えば、2本の指)を延ばしていることが検出された場合、選択された特定の機能またはメニューの選択肢は、ユーザインタフェースセクション50Aに関連付けられたスクロール機能またはメニューの選択肢に対応し得る。上述の特定のジェスチャーは、例示的なものに過ぎず、TOF撮像システム32によって識別できる任意のジェスチャーは、ユーザインタフェースメニュー画像22に対するものであることを理解すべきである。ユーザインタフェースセクション50がメニューの選択肢に対応している場合、特定のユーザインタフェース画像セクション50に対応する特定のメニューの選択肢を選択するのに、同様のジェスチャーが使用され得る(これにより、特定の動作または機能へのサブメニューに移動し得る)ことを理解するべきである。
ブロック106の問い合わせがネガティブである場合、方法100は、ブロック108に進む。ブロック108は、医療従事者12の手12Aが、遅延閾値(例えば、閾値期間)より長い間、対象領域(ROI)の外に移動しているかどうか、または、そうでなければ、医療従事者12の手12Aが、切り替えジェスチャーを示しているかどうか問い合わせることを含み得る。いくつかの実施形態において、ブロック108の対象領域は、TOF撮像システム32の検知ボリューム60のサブセットを含み得る。いくつかの実施形態において、ブロック108の対象領域は、投影されたユーザインタフェースメニュー画像22に相関する、または、基づき得る。例えば、ブロック108の対象領域は、TOF撮像システム32と、投影されたユーザインタフェースメニュー画像22との間のある領域に対応し得て、投影されるユーザインタフェースメニュー画像22のサイズに相関する、または、基づく、横方向の境界を含み得る。ブロック108の問い合わせがポジティブである(すなわち、医療従事者12の手12Aが、閾値期間より長く、対象領域の外に位置する)場合、方法100は、プロジェクタ34をオフにする(または、そうでなければ、ユーザインタフェースメニュー画像22を投影面38上に投影しない、または、それを中断する)ことを伴うブロック110に進む。ブロック110の後で、方法100は、ブロック102に進む(すなわち、システム10は、初期状態に戻る)。いくつかの実施形態において、医療従事者12の手12Aが対象領域の外に位置することが(例えば、遅延閾値の前に)最初に検出されたとき、システム10は(ブロック108の一部として)、システム10が遅延閾値の後で初期状態に戻ることを示す警告を出す。例えば、閾値時間の前に、医療従事者12の手12Aが対象領域の外に位置することが検出された後で、コントローラ30は、プロジェクタ34に、システム10が間もなく初期状態に戻ることの視覚的なインジケータ(例えば、ユーザインタフェースメニュー画像22上に投影される赤色の円、ならびに、ユーザインタフェース画像の点滅および/または強調など)を投影させ得る。一方、ブロック108の問い合わせがネガティブである場合(すなわち、医療従事者12の手12Aが対象領域の中に位置する、または、閾値期間より短い間、対象領域の外に位置する)、方法100は、ブロック104に戻る。
ブロック106の問い合わせがポジティブであり(例えば、特定の機能またはメニューの選択肢がユーザインタフェース画像セクション50に関連付けられている場合)、適切な選択ジェスチャーによって選択された場合、方法100はブロック111に進む。図4の実施形態のブロック111は、特定の実施形態にしたがって、特定の機能(例えば、ブロック106で選択された機能)を実施するための方法を含む。詳細は後述するが、いくつかの実施形態において、ブロック111は、メニューの選択肢に対応する動作を実施することを含み得る。 示されているブロック111の実施形態に入ると、方法100は、ブロック106の問い合わせの結果として選択された特定の機能を示すことを含む、オプションのブロック112を開始する。特定の実施形態において、ブロック112は、プロジェクタ34に、選択されたブロック106において選択されたユーザインタフェース画像セクション50の特定の1つにインジケータを投影させ得ることを含み得る。例えば、ユーザがユーザインタフェースセクション50A(スクロールに対応、図2を参照)を選択する場合、ブロック112は、ユーザインタフェース画像セクション50Aにインジケータを投影することを含み得る。例として、そのようなインジケータは、選択されたユーザインタフェース画像セクション50上に円を投影すること、選択されたユーザインタフェース画像セクション50を固定すること、選択されたユーザインタフェース画像セクション50を点滅させること、選択されたユーザインタフェース画像セクション50を強調すること、または、そうでなければ、選択されたユーザインタフェース画像セクション50に注意を引くことを含み得る。いくつかの実施形態または状況において、具体的には、医療従事者12の身体の一部(例えば、手12A)、および/または、医療従事者12に使用される器具によって、投影されているユーザインタフェース画像メニュー22の一部が投影面38上に現れることが妨害され得る場合、重ね合わせたインジケータを有する、選択されたユーザインタフェース画像セクション50(および/またはユーザインタフェースメニュー画像22の他のいずれかの部分)が、医療従事者12の身体の一部(例えば、手12A)および/または医療従事者12によって使用される器具の上に投影され得る。重ね合わせたインジケータを有する、選択されたユーザインタフェース画像セクション50のそのような投影は、選択状態を示し得る。いくつかの実施形態において、重ね合わせたインジケータ(および/または、ユーザインタフェースメニュー画像22の他のいずれかの部分)を有する、選択されたユーザインタフェース画像セクション50が、医療従事者12の身体の一部(例えば、手12A)、および/または、医療従事者12によって使用される器具の上に投影されている場合、医療従事者の身体または器具に投影されている画像部分は、プロジェクタに対する、医療従事者の身体または器具の距離および/または方向に基づいて調節され得る(例えば、拡大縮小および/または歪められ得る)。この距離および/または方向は、TOF撮像デバイス32によって取得されたデータに基づいて、コントローラ30によって決定され得る。
方法100は次に、第1の方向ジェスチャーが検出されたかどうか問い合わせることを伴うブロック114に進む。いくつかの実施形態において、方向ジェスチャーは、TOF撮像デバイス32と投影面38との間の方向に、および/または、プロジェクタ34と投影面38との間の方向にほぼ直交する、1つまたは複数の方向の、医療従事者12の手12Aの動き(または、その方向の成分を含む動き)を含み得る。そのような方向ジェスチャーは、図3Cにおいて概略的に示されている。図3Cは、図3Bの線3C−3Cに沿って切った、TOF撮像デバイス32のセンサボリューム60の空間68の概略的な断面図である。図3Cの示されている実施形態の例示的な場合において、医療従事者12の手12Aが方向92へ(例えば、図3Cの概略図における位置90へ)動く場合、これは、第1方向92の動きを示すジェスチャーと解釈され得る。逆に、医療従事者12の手12Aが方向94へ(例えば、図3Cの概略図において、位置88へ)動く場合、これは、第2方向92の動きを示すジェスチャーと解釈され得る。いくつかの実施形態において、空間68は、(例えば、概念上の線71および79によって)複数の領域に分割され得て、領域間の動きは、方向ジェスチャーとして解釈され得る。例えば、図3Cは、概念上の線71および79によって区分された3つの領域73、75、77を示す。図3Cの示されている実施形態の例示的な場合において、医療従事者12の手12Aが、概念上の線79に境界されるヌル領域77内に位置する場合、これは、いかなる方向ジェスチャーも意味するものではないと解釈されるが、手がヌル領域77から第1方向領域75(ヌル領域77の外であり、概念上の線71の一方の側(図3Cの概略図における線71の右側))へ動く場合、これは、第1方向92の動きを示すジェスチャーとして解釈され得る。逆に、医療従事者12の手12Aが、ヌル領域77から第2方向領域73(ヌル領域77の外であり、概念上の線71の逆側(図3Cの概略図における線71の左手側))へ動く場合、これは、第2方向94の動きを示すジェスチャーとして解釈され得る。いくつかの実施形態において、他の領域は、追加的または代替的に、本明細書に記載されるヌル領域77と同様のヌル領域と見なされ得る。例えば、d1の上の領域(図3B)は、ヌル領域と見なされ得る。いくつかの実施形態において、他の方向領域(および/または、追加的な方向領域)が提供され得る。
いくつかの実施形態において、医療従事者12の手12Aがヌル領域77から第1方向領域75へ(例えば、図3Cの概略図における方向92へ)動く場合、ブロック114の問い合わせは、ポジティブであり得る。この場合、方法100はブロック116へ進む。ブロック116は、ブロック106の選択された機能、および、ブロック114の第1方向に関連付けられた動作を実施することを含む。いくつかの実施形態において、ブロック116は、従来のコンピュータマウスのホイール入力に関連付けられた二方向機能の一方向と同様の機能を実施することを含み得る。例えば、ブロック106の選択された機能がスクロールを含み、ブロック114の問い合わせがポジティブである場合、ブロック116は、利用可能な画像を第1方向にスクロールすることを伴い得る。
いくつかの実施形態において、ブロック116の動作は、ブロック114の問い合わせがポジティブである期間発生し得て、ブロック114の問い合わせがネガティブになって初めて停止し得る。例えば、図3Cの示されている実施形態において、ブロック116の動作は、医療従事者12の手12Aがヌル領域77の外に位置する期間、概念上の線71の一方の側の第1方向領域75で発生し得る。医療従事者12が手12Aを領域75からヌル領域77へ戻す、または、第2方向領域73へ動かす場合、ブロック114の問い合わせはネガティブになり、ブロック116の動作が停止し得る。
いくつかの実施形態において、ブロック114および116は、比較的より複雑なジェスチャーの制御を容易にするロジックを含み得る。いくつかの実施形態は、ジェスチャーの方向に加えて、または、その代わりに、特定のジェスチャーと関連付けられた、大きさメトリックを確認することを含み得る。例えば、振幅パラメータは、図4のブロック114と116との間で識別され得て、医療従事者12が手12Aをヌル領域77から第1方向領域75へと動かす量(例えば、大きさメトリック)と、医療従事者12の手12Aの、中心軸69および/または概念上の線71(図3C)からの距離と、医療従事者12が手12Aをヌル領域77から第1方向領域75へと動かす速度と、他のいずれかの軸に沿った、医療従事者の手12Aの動き(例えば、図3Cで示されている方向93、95の1つ、または、図3Bで示されている方向97,99の1つ)と、これらの大きさメトリックのいずれかの組み合わせと、その他同種のものとを判定することを含み得る。そのような検出された大きさメトリックは、次に、ブロック16において、対応する量の関連付けられた機能を制御するのに使用され得る。例えば、ブロック116が、ズームイン動作を実施することを含む場合、識別された大きさメトリックは、ブロック116で実施されるズームの量および/または速度を判定するのに使用され得る。すなわち、ズームの量および/または速度は、識別された大きさメトリックに相関するか、その関数であるか、それに比例するか、および/または、そうでなければ、それに基づき得る。他の非限定的な例として、スクロールの場合、ブロック114および116は、速度を検知できるジェスチャー制御を包含し得る。これにより、例えば、医療従事者12が手12Aをヌル領域77から第1方向領域75へ動かす速度は、ブロック116において第1方向に行われるスクロール動作の対応する量および/または速度の基礎となる。
いくつかの実施形態において、ブロック114、116において確認された大きさメトリックは、速度に基づくメトリック(例えば、医療従事者12がどれほど速く手12Aを動かしたか)、および/または、位置に基づくメトリック(例えば、医療従事者12の手12Aは、中心軸69および/または概念上の線71からどれだけ遠いか)を含み得る。そのように確認された、速度に基づく、および/または、位置に基づく大きさメトリックは、対応する機能の、速度に基づく、および/または、位置に基づく量に相関し得る(および/または、それらにマッピングされ得る)。非限定的な例を以下に挙げる。
・位置に基づく大きさメトリックは、対応する機能の、位置に基づく量に相関し得る(例えば、手12Aの位置は、パンニングの位置に基づく量、または、スクロールされる画像の数に相関し得る、および/または、マッピングされ得る、など)。
・位置に基づく大きさメトリックは、対応する機能の速度に基づく量に相関し得る(例えば、手12Aの位置は、パンニングの速度、または、画像のスクロール速度に相関し得る、またはマッピングされ得る、など)。
・速度に基づく大きさメトリックは、対応する機能の位置に基づく量に相関し得る(例えば、手12Aの速度は、パンニングの位置に基づく量、または、スクロールされる画像の数などに相関し得る、および/またはマッピングされ得る)。
・速度に基づく大きさメトリックは、対応する機能の速度に基づく量に相関し得る(例えば、手12Aの速度は、パンニングの速度、または、スクロールされる画像の速度などに相関し得る、および/またはマッピングされ得る)。いくつかの実施形態において、他の追加的な、または代替的な大きさメトリックは、他の追加的な、または代替的な機能の量に相関し得る、および/またはマッピングされ得る。いくつかの実施形態において、大きさメトリックと機能の量との間の相関および/またはマッピングは、特定の選択された機能に依存し得る。例えば、いくつかの実施形態において、パンニング機能は、位置に基づく大きさメトリックに相関し得て、および/または、位置に基づく大きさメトリックを、位置に基づくパンニング機能にマッピングし得る。ここで、スクロール機能は、位置に基づく大きさメトリックに相関し得て、および/または、位置に基づく大きさメトリックをスクロール速度にマッピングし得る。
追加的または代替的に、いくつかの実施形態において、医療従事者は、一連の適切なジェスチャーを使用することで、大きさメトリックを更に増加または減少させ得る。非限定的な例として、いくつかの実施形態において、これは、医療従事者12が手12Aをヌル領域77から、大きさメトリックの第1階層に対応する第1方向領域75へ動かすこと、および、次に、いずれかの閾値より上または下に(例えば、d1より上に(図3B))、手12Aを上げる、または下げること、および、手12Aを引いてヌル領域77に戻して、ヌル領域77から第1方向領域75への動きを繰り返すことで、大きさメトリックを増加させることを伴う。大きさメトリックを増加または減少させるべく、追加的または代替的に、他のジェスチャーの組み合わせが使用され得る。例えば、医療従事者12は、手をヌル領域77から第1方向領域75へ移動させ得て、次に、大きさメトリックを増加させるべく手を上に動かし、大きさメトリックを減少させるべく手を下に動かし得る(または逆も同様である)。
追加的または代替的に、いくつかの実施形態において、医療従事者は、マウスホイールを上から下まで回転させ、次に指を上げて指をホイールの上へ「リセット」し、上から下までのスクロールを繰り返すことと同様の手段で、一連の適切なジェスチャーを使用して、ブロック116の動作の個別の反復を繰り返すことが可能であり得る。非限定的な例であるが、いくつかの実施形態において、これは、医療従事者12が手12Aをヌル領域77から、第1方向領域75(例えば、ヌル領域77の外であり、(図3Cに示されている図における)概念上の線71の右)へ動かすことでブロック116の第1の反復を発生させ、次に、いずれかの閾値より上に(例えば、d1より上に(図3B))手12Aを上げること、および、手12Aをヌル領域77まで引いて戻して、次に、ヌル領域77から第1方向領域75への動きを繰り返すことで、ブロック116の第2の反復を発生させることを伴い得る。医療従事者12が手12Aをいずれかの閾値より上に上げること以外のジェスチャーは、反復的な一連のジェスチャーを「リセット」するのに使用され得る。例えば、医療従事者は、リセットしたいことを示すべく、5本の指すべてをフリックし得て、次に、手をヌル領域77に戻してリセットする。いくつかの実施形態において、特定の「リセット」ジェスチャーは、必須ではなく、ヌル領域77と第1方向領域75との間で行き来するように動かす一連の繰り返しは、第1方向ジェスチャーの反復の繰り返しと解釈され得て、医療従事者が、手12Aを第2方向領域73(例えば、ヌル領域77の外であり、概念上の線71の左(図3C))へ動かさなければ、ブロック116の反復を繰り返し得る。
再び図1において、図1の実施形態で示されている特定の実施形態にしたがってブロック116を実施することは、コントローラ30が、通信用インタフェース36に、(例えば、ワークステーション44に関連付けられた、対応する通信インタフェース46で)ワークステーション44と通信する(例えば、コマンドを送信する)させることを含み得る。図1で示されている実施形態と同様に、ワークステーション44は、無菌環境16の外(例えば、非無菌領域18)に位置し得る。非限定的な例であるが、通信用インタフェース36、46は、適切なLANまたはWANネットワークを介して互いに通信し得る適切に構成された、有線または無線通信用インタフェース(例えばルータ)を有し得る。
ワークステーション44は、適切なソフトウェアインタフェース48を含み得る。ワークステーション44は、ユーザインタフェースデバイス26からコマンドを受け取ると、医療関連情報が保持されている記憶場所49(例えば、病院のサーバ)とインタラクトし得る。ワークステーション44と記憶場所49との間のインタラクションは、通信用インタフェース46を使用して、適切なWANまたはLANネットワーク(図示せず)上で実施され得る(ただし必須ではない)。いくつかの実施形態において、記憶場所49は、他のいずれかの通信プロトコルを使用してワークステーション44に接続され得る。例えば、記憶場所49は、ワークステーション44がアクセスし得る、ハードドライブ、USBメモリスティック、光学ディスクなどを含み得る。記憶場所49は、画像および/または他の医療関連情報を保存し得る。記憶場所49は、ワークステーション44からコマンド(ユーザインタフェースデバイス26からのコマンドに対応)を受け取ると、それに応答して、適切な医療関連情報をワークステーション44に提供し得て、ワークステーション44は次に、その情報をユーザインタフェースデバイス26に提供し得る。示されている実施形態において、そのような情報は、ディスプレイ24にこの情報を表示させる、ユーザインタフェースデバイス26のコントローラ30に提供される。
例えば、図1および図4を参照すると、ブロック106の選択された機能がスクロールを含み、ブロック114がポジティブである場合、ブロック116は、記憶場所49から画像を検索すること、および、利用可能な画像のスクロール動作を(ディスプレイ24上に)表示することを伴い得る。他の例として、ブロック106の選択された機能がズームを含み、ブロック114がポジティブである場合、ブロック116は、特定の画像に関するより詳細なデータを記憶場所49から検索すること、および、特定の画像上でズームインするためのズーム動作を(ディスプレイ49上に)表示することを伴い得る。いくつかの実施形態において、ワークステーション44は、Osirixのソフトウェアを実装し得る。これは、ソフトウェアインタフェース48の一部であり、画像保管通信システム(PACS)、医用デジタル画像・通信システム(DICOM)、病院情報システム(HIS)、放射線医学情報システム(RIS)などとインタラクトし得る。
いくつかの実施形態において、適切な画像を表示するためのデータは、ユーザインタフェースデバイス26で(例えば、コントローラ30がアクセス可能なメモリ(図示せず)内で)既に利用可能であり得るので、ブロック116の動作のいくつかは、記憶場所49とのインタラクションを必要とし得ない。いくつかの実施形態において、ブロック116の機能を提供するべく、異なるアーキテクチャが実施され得る。例えば、いくつかの実施形態において、ワークステーション44は、ディスプレイ24と直接通信し得て、ワークステーション44は、ユーザインタフェースデバイス26から受信されたコマンドに応答して、ディスプレイ24に、特定の画像をユーザインタフェースデバイス26へ送り戻すことなく当該画像を表示させ得る。他の例として、いくつかの実施形態において、ユーザインタフェースデバイス26は、記憶場所49と直接通信し得る。この場合、画像データは、ユーザインタフェースデバイス26によって、記憶場所49から直接検索され得て、ワークステーション44は必要とされ得ない。
再び図4において、ブロック114の問い合わせがネガティブである場合、方法100は、第2方向ジェスチャーが検出されたかどうか問い合わせることを伴うブロック118へ進む。上述のように、いくつかの実施形態において、方向ジェスチャーは、TOF撮像デバイス32と投影面38との間、および/または、プロジェクタ34と投影面38との間の方向に対してほぼ直交する1つまたは複数の方向の(または、そのような方向の成分を含む)、医療従事者12の手12Aの動きを含み得る。図3Cの示されている実施形態の例示的な場合において、医療従事者12の手12Aが、ヌル領域77から、ヌル領域77の外であって概念上の線71の(図3Cにおける)左側にある第2方向領域73へ(図3Cの概略図における方向94へ)動く場合、これは、第2方向94の動きを示すジェスチャーとして解釈され得る。ブロック118において、この第2方向の動きが検出された場合(すなわち、ブロック118の問い合わせがポジティブである場合)、方法100は、ブロック120へ進み得る。
ブロック120は、ブロック106の選択された機能およびブロック118の第2方向に関連付けられた動作を実施することを含み得る。これに関連して、ブロック120は、上述のブロック116と逆の方向を有する機能を実装し得る。例えば、いくつかの実施形態において、ブロック120は、従来のマウスのホイール入力に関連付けられた二方向機能の一方向と同様の機能を実施することを含み得る。例えば、ブロック106の選択された機能がスクロールを含み、ブロック118の問い合わせがポジティブである場合、ブロック120は、利用可能な画像を第2方向(ブロック116の方向と逆方向)にスクロールすることを伴い得る。コマンドの方向を別として、ブロック118および120を実施することは、ブロック114および116に関連して上述された技術のいずれかを含み得る。
ブロック118の問い合わせがネガティブである、または、ブロック120が終了する場合、方法100は、ブロック122へ進み得る。ブロック122は、医療従事者12の手12Aが、遅延閾値(例えば、閾値期間)より長い間、対象領域(ROI)の外に移動しているかどうかの、ブロック108の問い合わせと同様の問い合わせることを伴い得る。ブロック122の問い合わせは、ブロック108に関連して上述されたものと同様の技術を使用して実施され得る。ブロック122の問い合わせがポジティブである(すなわち、医療従事者12の手12Aが、閾値期間より長く、対象領域の外に位置する)場合、方法100は、プロジェクタ34をオフにする(または、そうでなければ、ユーザインタフェースメニュー画像22を投影面38上に投影しない、または、それを中断する)ことを伴うブロック110に進む。ブロック110の後で、方法100は、ブロック102に進む(すなわち、システム10は、初期状態に戻る)。いくつかの実施形態において、医療従事者12の手12Aが対象領域の外に位置することが(例えば、遅延閾値の前に)最初に検出されたとき、システム10は(ブロック122の一部として)、システム10が遅延閾値の後で初期状態に戻ることを示す警告を出す。例えば、閾値時間の前に、医療従事者12の手12Aが対象領域の外に位置することが検出された後で、コントローラ30は、プロジェクタ34に、システム10が間もなく初期状態に戻ることの視覚的なインジケータ(例えば、ユーザインタフェースメニュー画像22上に投影される赤色の円、ならびに、ユーザインタフェース画像の点滅および/または強調など)を投影させ得る。一方、ブロック122の問い合わせがネガティブである場合(すなわち、医療従事者12の手12Aが対象領域の中に位置する、または、閾値期間より短い間、対象領域の外に位置する)、方法100は、ブロック114に戻る。
図6は、特定の実施形態による図4の方法100においてブロック111に加えて、および/または、その代わりに使用され得る方法211の概略図である。図4のブロック111と同様に、図6の方法211は、特定の実施形態による特定の機能(例えば、ブロック106において選択される機能)を実施するための方法を含む。多くの点において、図6の方法211は、本明細書の他の箇所に記載されているブロック111と同様である。したがって、単純化のために、本記載はブロック111と方法211との間の違いに焦点を当てる。当業者であれば、本明細書の他の箇所に記載されているブロック111の技術が方法211のどこで使用され得るか理解できるであろう。方法211は、ブロック106の問い合わせ(図4を参照)がポジティブであるときに開始される。方法211は、ブロック106の問い合わせの結果として選択された特定の機能を示すことを含む、オプションのブロック212において開始する。ブロック212は、上述のブロック112と実質的に同様であり得る。
方法211は次に、コントローラ30が、プロジェクタ34に、サブメニュー画像250を投影面38に投影させることを伴う、ブロック213へ進む。サブメニュー画像250を投影面38に投影することは(投影の内容を別として)、ユーザインタフェースメニュー画像22を投影面38に投影することと実質的に同様であり得る。図7は、特定の実施形態による、ブロック213における、投影面38上に投影され得るサブメニュー画像250の例を示す。サブメニュー画像250は、複数のサブメニュー画像セクション252(個別には、サブメニュー画像セクション252A、252B、252C、252D、252E)を含む。サブメニュー画像セクション252は、ユーザインタフェース画像セクション50の選択のための、本明細書に記載された技術のいずれかと同様の手段でジェスチャー(例えば、医療従事者12の手12Aのジェスチャー)を使用することで選択され得る。図7で示されている実施形態において、ユーザインタフェースメニュー画像22は、サブメニュー画像250と同時に投影されており、ユーザインタフェースメニュー画像22は、スクロール機能(ユーザインタフェース画像セクション50A)が強調された状態で示されているが、これらの特徴のいずれも必須ではない。いくつかの実施形態において、ユーザインタフェースメニュー画像22は、方法211の間に表示されない。いくつかの実施形態において、ユーザインタフェースメニュー画像22は、方法211の間に表示されるが、サイズを減少させて、または、サブメニュー画像250がユーザインタフェースメニュー画像22に対して強調されることを可能にする他のいずれかの形で示される。いくつかの実施形態において、ユーザインタフェースメニュー画像22の一部(例えば、ユーザインタフェース画像セクション50のうち選択された1つに対応するアイコン)だけが方法211の間に表示される。
図7の実施形態のサブメニュー画像250は、サブメニュー画像セクション252A(高振幅/速度左機能に対応)、252B(低振幅/速度左機能に対応)、252C(停止機能に対応)、および、252D(低振幅/速度右機能に対応)、252E(高振幅/速度右機能に対応)を含むことが分かる。上述のように、サブメニュー画像セクションの各々に対応する機能は、ユーザインタフェース画像セクション50の選択のための、本明細書に記載されるジェスチャーのいずれかに基づく技術を使用して選択され得る。ブロック214において、方法211は、医療従事者12が、サブメニュー画像セクション252および対応する機能のいずれを選択するのにジェスチャーを使用したかどうか問い合わせることを伴う。ブロック214の問い合わせがネガティブである場合、方法211は、図4およびブロック111に関連して上述されているブロック122と実質的に同様であるブロック222に進む。ブロック214の問い合わせがポジティブである場合、方法211は、ブロック216に進む。ブロック216は、システム10が、ブロック214の選択されたサブメニューの方向および振幅/速度で、ブロック106の選択された機能を実施することを伴う。例えば、図7の例の場合、ブロック106の選択された機能は、スクロール機能(ユーザインタフェースメニューのセクション50Aに対応する)である。ブロック214において、医療従事者12がジェスチャーを使用してサブメニュー画像セクション252Eを選択する場合、システム10は、ブロック216において、ディスプレイ24(図1)上に表示されている画像を、比較的速いスクロール速度(高振幅)で、右または上(方向)にスクロールさせ得る。一方、ブロック214において、医療従事者12がジェスチャーを使用してサブメニュー画像セクション252Bを選択する場合、システム10は、ブロック216において、ディスプレイ24上に表示されている画像を、比較的小さいスクロール速度(低振幅)で、左または下(方向)にスクロールさせ得る。方法211のブロック216を実施するのに使用される方法および技術は、例えば、図4のブロック116および/または120の動作を実施することに関連して本明細書に記載されている方法および技術のいずれかと同様であり得る。
ブロック218において、方法211は、ブロック214のサブメニュー画像セクション252が選択されたままであるかどうか確認することを伴う。医療従事者12が(例えば、特定のサブメニュー画像セクション252上に手12Aを配置したままにすることによって、または、そうでなければ、ジェスチャーを使用して特定のサブメニュー画像セクション252を選択することによって)、特定のサブメニュー画像セクション252およびその対応する機能を選択し続ける場合、ブロック218の問い合わせはポジティブであり、方法211は、システム10が対応する動作を実施し続けるブロック216に戻る。医療従事者12が(例えば、サブメニュー画像250から離れるように手12Aを動かすことによって、または、そうでなければ、ジェスチャーを使用して特定のサブメニュー画像セクション252の選択を解除することによって)、特定のサブメニュー画像セクション252およびその対応する機能の選択を中止する場合、ブロック218の問い合わせはネガティブであり、方法211はオプションのブロック220へ進む。オプションのブロック220において、システム10は、図7の実施形態のサブメニュー画像セクション252C内に示されている「停止」アイコンを強調し得る。オプションのブロック220において停止アイコンを強調するのに使用される技術は、オプションのブロック112において選択された機能を示すための、本明細書に記載のいずれかの技術と同様であり得る。停止アイコンを強調するための、同様のオプションのブロックが、ブロック214の「NO」分岐とブロック222との間に位置し得る。方法211は最終的に、本明細書の他の箇所に記載されているブロック122と同様の機能を提供するブロック222に到達する。
当業者であれば、(ブロック111および/または方法211を使用して実施される)方法100の機能は、2つの逆方向の方向性動作(例えば、ブロック116および120に関連付けられた動作)を提供することを理解するであろう。いくつかの実施形態において、特定の選択された動作について、異なる数の方向が提供され得る。例えば、図2のユーザインタフェースメニュー画像22において、ユーザインタフェース画像の1つ(セクション50B)は、2つより多くの逆方向のパンニングを含み得るパンニングに対応する。この場合、図4の方法100は、追加的な(例えば、第3および第4の)方向を除いてブロック114、118と同様の追加的な問い合わせと、そのような追加的な方向を除いてブロック116、120と同様の対応する追加的な動作とを提供することによって変更され得る。そのような実施形態において、追加的な方向ゾーンが図3Cの概略図において提供され得る。同様に、そのような追加的な方向を提供するべく、方法211において、追加的なサブメニュー画像セクション252が使用され得る。
ユーザインタフェース画像セクション50、および、それらの対応する機能を選択する目的で、システム10は、メニューのようなインタラクションを医療従事者12に提供する。いくつかの実施形態において、「ドリルダウン」タイプのメニューインタラクションが提供され得て、特定のユーザインタフェース画像セクション50に関連付けられた「機能」によって、コントローラ30は、プロジェクタ34に、ユーザインタフェースサブ画像を表示させ、当該ユーザインタフェースサブ画像は、対応するグラフィックおよび/またはテキストアイコンならびに対応する機能を有するユーザインタフェースサブ画像の画像セクションの新しいセットを含むことが理解されるであろう。複数の階層のサブメニューが、この手段で実施され得ることが理解されるであろう。方法100は、例えば、ブロック106と同様の、複数の階層の問い合わせを提供することで、そのような機能を提供するように変更され得て、選択ジェスチャーの連続的な検出の各々において、対応するユーザインタフェースサブ画像を表示することは、ユーザインタフェース画像セクションの新しいセットを含む。
いくつかの実施形態において、方法100の一部として行われる動作の方向は、必須ではない。例えば、ユーザインタフェース画像セクション50の1つ、または、ユーザインタフェースサブ画像セクションの1つに関連付けられた機能の特定の1つを選択すれば、十分であり得る。そのような実施形態において、ブロック111および/または方法211は、方向を考慮することなく、選択された動作を実施することを伴うブロックによって置き換えられるか、(例えば、そのブロックを追加することで)増大される。非限定的な例であるが、いくつかの実施形態において、ユーザインタフェースサブ画像セクションは、現在のビデオクリップを再生する、または、一連の次の番号(例えば、300)の画像をビデオクリップ化してそれを再生する機能に関連付けられ得る。そのようなユーザインタフェースサブ画像セクションが選択された場合、方法100のブロック111は、いかなる方向の問い合わせもなくビデオクリップを再生すること、および、次に、ビデオクリップの再生後にブロック122へ進むことを含み得る。
上述のように、コントローラ30は、プロジェクタ34に、ユーザインタフェースメニュー画像22を、無菌環境16に位置し、医療従事者12が見てインタラクトすることに適した投影面38上に投影させる。いくつかの実施形態において、投影面38は、患者14が位置する手術台28の部分28Aのほぼ横方向の表面を含み得る。医療従事者12は、手術台28の部分28Aとユーザインタフェースデバイス26との間の空間68において一方の(または両方の)手12Aを使用するジェスチャーを作ることで、システム10とインタラクトし得て、そのようなジェスチャーは、投影されるユーザインタフェースメニュー画像22に対する、および/または、ユーザインタフェースメニュー画像22が投影される投影面38に対する、医療従事者の手12Aの位置に基づいて解釈され得る。いくつかの実施形態において、システム10は、投影されるユーザインタフェースメニュー画像22が、手術台28の部分28Aに(例えば、手術台の端に交差することなく)適合するように、(TOF撮像システム32によって取得されたデータに基づいて)投影されるユーザインタフェースメニュー画像22サイズを調節し得る。例えば、コントローラ30は、手術台28の端の一方の側を(例えば、端の他方の側における、手術台28と床との間の高さの急激な変化によって)見つけるべく、TOF撮像システム32によってキャプチャされたデータを解釈し得る。コントローラ30は次に、プロジェクタ34に、(投影されているときの)ユーザインタフェースメニュー画像22のサイズを調節して手術台28の部分28Aに適合させ得る。
投影面38が手術台28の部分28Aを含む実施形態において、投影面38は、ほぼ横方向であるが、不規則(例えば、非平面、または、完全ではないがほぼ横方向)であり得る。投影面38のこの不規則性は、患者の身体の存在、いずれかの投影面(例えば、手術台)の被覆の状態、医療器具の存在などに起因し得る。いくつかの実施形態において、システム10は、投影面38の検出された不規則性に基づいて、投影されている、ユーザインタフェース画像22を補償し得る。例えば、コントローラ30は、TOF撮像システム32によって取得された情報に基づいて、投影面38の3D形状を判定し得て、そのような3D形状を使用することで、プロジェクタ34に、ユーザインタフェースメニュー画像22の投影を調節して表面の不規則性を補償させる。いくつかの実施形態において、システム10は、投影されているユーザインタフェース画像を調節して、投影面38の反射率および/または色を補償し得る。例えば、コントローラ30は、TOF撮像システム32、または、カラーカメラなど他のいずれかの適切な撮像システム(図示せず)によって取得されたデータに基づいて、投影面38の反射率または色を推定し得る。コントローラ30は、次に、この情報を使用することで、プロジェクタ34に、ユーザインタフェースメニュー画像22の投影を調節して投影面38の反射率および/または色を補償させる。
いくつかの実施形態において、放射源64(図3Aを参照)による、検知ボリューム60の不規則な照射を補償するべく、TOF撮像システム32の積分時間を調節することが望ましいことがある。TOF撮像システム32の積分時間を調節することは、検出器66で受け取る放射の量を調節することに対応する。この目的で、空間68は、図5Aで示されているように、さらに、例えば図5Aにおける点線で示された適切な径座標閾値によって表現されているように、3つの断面対象領域140、142、144へと概念的に分割され得る。図5Aで示されている実施形態において、中心領域140は、断面内で円形であり、領域142、144は、断面内で輪状であり、これらの領域は、軸69に対して同心円状である。他の実施形態において、他の数および/または形の対象領域が使用され得ることが理解されるであろう。いくつかの実施形態において、システム10は、医療従事者12の手12Aの3D位置を発見または追跡し得て、手12Aが位置する対象領域(例えば、領域140、142または144)と、手12AとTOF撮像システム32との間(または、手12Aと、TOF撮像システム32に関連付けられた基準位置(例えば、座標系原点)との間)の軸69に沿った距離(例えば、高さ)hとに基づいて、TOF撮像システム32の積分時間を補償し得る。領域142における例示的な手12Aの位置は、図5Aに示されている。手12Aと、TOF撮像システム32に関連付けられた基準位置との間の、軸69に沿った例示的な距離hは、図3Aに示されている。
いくつかの実施形態において、これら2つの入力は、1つまたは複数のルックアップテーブルに基づき適切な積分時間を決定するための基礎として使用され得る。そのようなルックアップテーブルの基礎として使用され得る適切なプロットは、図5Bで提供されている。具体的には、手12Aが位置すると判定された対象領域(例えば、140、142、144)は、プロットのルックアップテーブルが、(i)中心の対象領域140に対応するか、(ii)輪状の対象領域142に対応するか、(iii)輪状の対象領域144のに対応するか選択するための基礎として使用され得る。プロットが選択されると、TOF撮像システム32に関連付けられている基準位置からの手12Aの距離hに基づいて、積分時間を提供するのに使用される特定の曲線が選択され得る。すなわち、各プロットのy軸は、距離hを提供し、各プロットのx軸は、対応する積分時間を提供する。
本明細書に記載されている実施形態のいくつかは、手12Aの比較的小さい動きを利用する。このことは、無菌環境16(図1)内に比較的多くの人が存在する場合、および/または、医療従事者12が処置中に重い含鉛防護服を着用する場合に有利であり得る。本明細書に記載されているいくつかの実施形態は、ユーザインタフェース画像を、上向きのほぼ横方向の表面上に投影する天井取り付けシステムを利用する。この向きは、医療従事者12がジェスチャーを有効にするべく、患者から顔を上げ、手術台28の向こう側にある、鉛直のスクリーンを有するモニタの方を向くことが必要でないことがあるという理由と、無菌環境16内における他の物体または器具によってTOF撮像システムが閉塞することを回避し得るという理由と、無菌環境16内における他の物体または器具への干渉をほぼ回避し得るという理由とから、有利であり得る。
本発明の特定の実装は、コンピュータおよび/またはプロセッサに本発明の方法を実施させるソフトウェア命令を実行するコンピュータおよび/またはコンピュータプロセッサを含み得る。例えば、コンピュータシステム内の1つまたは複数のプロセッサは、プロセッサがアクセス可能なプログラムメモリから検索されたソフトウェア命令を実行することにより、本明細書に記載の方法におけるデータ処理段階を実施し得る。また、発明は、プログラム製品の形態として提供され得る。プログラム製品は、データプロセッサによって実行されたときにデータプロセッサに本発明の方法を実行させる命令を含むコンピュータ可読信号のセットを有するいずれかの媒体から成り得る。本発明によるプログラム製品は、幅広い様々な形態のいずれであり得る。プログラム製品は、例えば、磁気データ記憶媒体(フロッピー(登録商標)ディスケットなど)、ハードディスクドライブ、光学データ記憶媒体(CD、ROM、DVDなど)、電子データ記憶媒体(ROM、フラッシュRAMなど)などの物理的(不揮発性)媒体を含み得る。命令は、暗号化および/または圧縮された形式でプログラム製品中に存在し得る。
コンポーネント(例えば、ソフトウェアモジュール、コントローラ、プロセッサ、アセンブリ、デバイス、コンポーネント、回路など)が上述されている場合、別段の指定が無い限り、そのコンポーネントへの言及(「意味する」という言及を含む)は、記載されているコンポーネントの機能を実施する何らかのコンポーネントの均等物(すなわち、機能的に均等物)を含むものと解釈されるべきである(本発明の例示的な実施形態で示されている機能を実施する、開示されている構造と構造的に均等でないコンポーネントを含む)。
多くの例示的な態様および実施形態が本明細書で検討されているが、当業者であれば、特定の変形、変更、追加、および、それらのサブコンビネーションを認めるであろう。例えば、
・システム10によってディスプレイ24上に表示され得る医療関連情報は、一般的に、いかなるタイプの情報も含み得る。いくつかの実施形態において、この医療関連情報は、処置が実施されている患者14の画像を含み得る。そのような画像は、処置の前または間に取得され得て、一般的に、そのような画像を取得するのに使用される技術のタイプに制限は無い。非限定的な例であるが、そのような画像は、X線、コンピュータ断層撮影(CT)スキャン、核磁気共鳴画像法(MRI)、超音波、内視鏡検査、エラストグラフィ、サーモグラフィ、陽電子放射断層撮影などによって取得される。いくつかの実施形態において、いくつかのそのような画像は、まとめられてビデオクリップになる。本明細書で使用されている、画像という単語は、ビデオクリップを含むものと理解されるべきである。
・図4の方法100において、特定の機能の方向、振幅、および/または、速度を有効にするのに使用されるジェスチャーは上述されたものに限定されず、TOF撮像システム32によって識別可能である、いずれかの適切なジェスチャーを含み得る。非限定的な例であるが、医療従事者12がTOF撮像システム32に対して一方向に手12Aを動かす場合、スクロール機能の速度は、速くスクロールするようになり得て、医療従事者12がTOF撮像システム32に対して逆方向に手12Aを動かす場合、遅くスクロールするようになり得る。
・上述の実施形態のいくつかにおいて、距離および閾値は、ジェスチャーを識別するべくシステム10によって使用され、または、そうでなければ、投影面38に関して記載される。いくつかの実施形態において、システム10は、TOF撮像システム32の検知ボリュームにおける他の物体からベッド28を識別するように構成され得て、投影面38に対するそのような閾値および距離を設定することに加え、または、その代わりに、ベッド28の表面(または、推定される表面)に対する、そのような閾値および距離を設定し得る。
・実施形態は本明細書において、医療従事者12が自身の手12Aを使用して作るジェスチャーを解釈するものとして記載されている。手12Aの使用は、明示的に必須のものではない。システム10は、医療従事者12が他の物体(医療従事者12が持っている器具、医療従事者12の他の手足、医療従事者12の指など)を使用して作る3Dジェスチャーを解釈するように構成され得る。
・いくつかの実施形態において、コントローラ30は、医療従事者12とユーザインタフェースメニュー画像22とのインタラクションを伴わない他のジェスチャー(例えば、指ベースのジェスチャー)を(TOF撮像システム32からの3D画像を用いて)識別し得る。そのような他のジェスチャーは、そのように識別された場合、追加的または代替的な機能を提供するのに使用され得る。
・上述の実施形態において、掌を下に下ろす動作に基づくジェスチャーボキャブラリーが、システム10によって定義および認識される。いくつかの実施形態において、このジェスチャーボキャブラリーに対し、追加、または、他の変更が行われ得る。
多くの例示的な態様および実施形態が上述されているが、当業者であれば、それらの特定の変形、変更、追加、および、サブコンビネーションを認めるであろう。したがって、以下に添付される特許請求の範囲、および、本明細書で後に登場する特許請求の範囲は、本発明の真の精神および範囲内で、そのような変形、変更、追加、および、サブコンビネーションのすべてを含むものと解釈することが意図されている。

Claims (76)

  1. 医療従事者が医療処置中に医療関連情報とインタラクトすることを可能にするためのシステムであって、
    ユーザインタフェースメニュー画像を投影面上に投影するためのプロジェクタと、
    前記投影面を含む検知ボリューム内の複数の物体に関する3次元位置情報をキャプチャするための3次元光学撮像システムと、
    前記3次元光学撮像システムから前記3次元位置情報を受け取るべく接続されているコントローラであって、前記3次元光学撮像システムと前記投影面との間の空間において前記医療従事者が作る1つまたは複数のジェスチャーを、投影されている前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に少なくとも部分的に基づいて解釈するように構成されている、コントローラと
    を備え、
    前記コントローラは、ディスプレイに画像をレンダリングさせるべく、前記ディスプレイに接続可能であり、前記ディスプレイに、医療関連情報を含む画像をレンダリングさせるように構成され、前記画像および前記医療関連情報のうち少なくとも1つは、解釈された前記ジェスチャーに少なくとも部分的に基づく、
    システム。
  2. プロジェクタ、前記3次元光学撮像システム、および、前記ディスプレイは、前記医療処置が実施されている無菌環境内に位置する、請求項1、または、本願の他のいずれかの請求項に記載のシステム。
  3. 前記投影面は、ほぼ横方向の表面を含む、請求項1から2のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  4. 前記投影面は、前記医療処置を受けている患者が位置する手術台の一部を含む、請求項1から3のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  5. 前記投影面は、前記医療処置において使用するための複数の器具を保持するためのサイドテーブルの、ほぼ横方向の表面を含む、請求項1から3のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  6. 前記医療従事者によって作られる前記複数のジェスチャーは、前記医療従事者の手のうち少なくとも1つによって作られる複数の動きを含む、請求項1から5のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  7. 前記コントローラは、前記3次元光学撮像システムから受け取った前記3次元位置情報に少なくとも部分的に基づいて、前記ジェスチャーが、複数のジェスチャーを含むジェスチャーボキャブラリーの中の、特定のジェスチャーであることを解釈するように構成されている、請求項1から6のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  8. 前記ユーザインタフェースメニュー画像は、複数のユーザインタフェース画像セクションを含み、各ユーザインタフェース画像セクションは、前記ユーザインタフェースメニュー画像の異なる部分を占め、対応する機能に関連付けられている、請求項1から7のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  9. 各ユーザインタフェース画像セクションは、対応する機能に関連付けられた、表示されるグラフィックおよび/またはテキストを含む、請求項8、または、本願の他のいずれかの請求項に記載のシステム。
  10. 前記コントローラは、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの特定の1つの上にある前記ジェスチャーの位置に基づく、前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能との選択として解釈するよう構成されている、請求項8から9のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  11. 前記コントローラは、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つからの前記ジェスチャーの近接度に基づく、前記複数のユーザインタフェース画像セクションの特定の1つと、前記対応する機能との選択として解釈するよう構成されている、請求項8から10のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  12. 前記コントローラは、前記医療従事者が作るジェスチャーを、前記複数のユーザインタフェース画像セクションのうち前記特定の1つと、前記対応する機能との前記選択として解釈した後で、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記医療従事者が作る1つまたは複数の更なるジェスチャーを、前記ディスプレイ上に表示される前記医療関連情報とインタラクトするための1つまたは複数の対応するコマンドを含むものと解釈するように構成され、前記ディスプレイに、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、1つまたは複数の対応するコマンドを有効にさせる、請求項10から11のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  13. 前記コントローラは、
    前記プロジェクタに、サブメニュー画像を前記投影面上に投影させることであって、前記サブメニュー画像は、複数のサブメニュー画像セクションを含み、各サブメニュー画像セクションは、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられている、前記サブメニュー画像の異なる部分を占める、投影させること、および、
    前記医療従事者によって作られる、前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの特定の1つに対する前記1つまたは複数の更なるジェスチャーの位置に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの対応する1つとの選択を含むものとして解釈することによって、
    前記医療従事者が作る前記1つまたは複数の更なるジェスチャーを、1つまたは複数の対応するコマンドを含むものと解釈するように構成される、請求項12、または、本願の他のいずれかの請求項に記載のシステム。
  14. 各サブメニュー画像セクションは、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられた、表示されるグラフィックおよび/またはテキストを含む、請求項13、または、本願の他のいずれかの請求項に記載のシステム。
  15. 前記コントローラは、前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの前記特定の1つの上の、前記1つまたは複数の更なるジェスチャーの前記位置に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものとして解釈するように構成されている、請求項13から14のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  16. 前記コントローラは、前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーが、前記複数のサブメニューインタフェースセクションの前記特定の1つに対する前記1つまたは複数の更なるジェスチャーの近接度に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものと解釈するよう構成されている、請求項13から15のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  17. 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像をズームインするズームインコマンドと、前記ディスプレイ上に表示される画像をズームアウトするズームアウトコマンドとを含む、請求項12から16のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  18. 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される複数の画像を第1方向にスクロールすること、および、ディスプレイ上に表示される画像を第2方向にスクロールすることを含む、請求項12から17のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  19. 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像の周囲で様々な方向にパンニングすることを含む、請求項12から17のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  20. 前記1つまたは複数の対応するコマンドは、第1方向コマンド、および、前記第1方向コマンドと逆方向である第2方向コマンドを含む、請求項12から19のいずれか一項に記載のシステム。
  21. 前記第1方向コマンドは、第1方向の第1ジェスチャーに関連付けられ、前記第2方向コマンドは、第2方向の第2ジェスチャーに関連付けられ、前記第1方向および前記第2方向は、互いに対してほぼ逆である、請求項20、または、本願の他のいずれかの請求項に記載のシステム。
  22. 前記コントローラは、前記3次元光学撮像システムによってキャプチャされる前記位置情報に基づいて、前記第1方向における前記ジェスチャーに関連付けられた動きの量と、前記第1方向における前記ジェスチャーの位置と、前記第1方向における前記ジェスチャーの速度とのうち、少なくとも1つに基づく、前記第1ジェスチャーに関連付けられた大きさメトリックを決定するように構成されている、請求項21、または、本願の他のいずれかの請求項に記載のシステム。
  23. 前記コントローラは、前記ディスプレイに、前記大きさメトリックに基づいて、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、1つまたは複数の対応するコマンドを有効にさせるよう構成されている、請求項22、または、本願の他のいずれかの請求項に記載のシステム。
  24. 前記1つまたは複数の対応するコマンドの各々は、方向性および大きさメトリックを含み、前記コントローラは、前記ディスプレイに、前記1つまたは複数の対応するコマンドの前記対応する1つの前記方向性および前記大きさメトリックに基づいて、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、前記1つまたは複数の対応するコマンドの前記対応する1つを有効にさせるよう構成されている、請求項13から19のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  25. 前記特定のジェスチャーは、前記投影面の閾値距離内にある位置へ前記医療従事者の手の1つを動かすことを含む、請求項10から24のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  26. 前記閾値距離は、前記投影面に関連付けられた基準点に対して決定され、前記基準点は、前記3次元光学撮像システムにもっとも近い、前記投影面上の点を含む、請求項25または本願の他のいずれかの請求項に記載のシステム。
  27. 前記閾値距離は、前記投影面に関連付けられた基準点に対して決定され、前記基準点は、前記投影面上の複数の点の平均を含む、請求項25または本願の他のいずれかの請求項に記載のシステム。
  28. 前記閾値距離は、前記検知ボリュームにおけるベッドの検出に基づく、前記投影面の前記位置の推定に対して決定される、請求項25または本願の他のいずれかの請求項に記載のシステム。
  29. 前記コントローラは、前記医療従事者によって作られる前記特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つおよび前記対応する機能の前記選択として解釈した後で、前記プロジェクタに、前記複数のユーザインタフェース画像セクションの前記特定の1つ、および、前記対応する機能が選択されたという表示を、前記ユーザインタフェースメニュー画像内に投影させるように構成されている、請求項10から28のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  30. 前記コントローラは、前記プロジェクタに、前記表示を前記ユーザインタフェースメニュー画像内に投影させるように構成され、前記医療従事者の身体の一部、および、前記医療従事者によって使用されている器具の1つまたは複数に、前記表示を含む前記ユーザインタフェースメニュー画像の一部を投影するよう構成されている、請求項29、または、他のいずれかの請求項に記載のシステム。
  31. 前記投影面は、不規則(例えば、非平面、または、ほぼ横方向であるが完全な横方向ではない)な表面形状を含み、前記コントローラは、前記プロジェクタに、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記ユーザインタフェースメニュー画像の前記投影を調節し、前記投影面の前記不規則な表面形状を補償させるように構成されている、請求項1から30のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  32. 前記コントローラは、前記プロジェクタに、前記3次元光学撮像システムによってキャプチャされた位置情報に基づいて、前記投影面の前記不規則な表面形状のモデルを作成し、前記モデルに基づいて、前記ユーザインタフェースメニュー画像の前記投影を調節させるように構成されている、請求項31、または、本願の他のいずれかの請求項に記載のシステム。
  33. 前記投影面の前記不規則な表面形状は、患者の身体の存在によって生じる不規則性と、手術台の複数の被覆(例えば、シーツ)の存在によって生じる複数の不規則性と、1つまたは複数の医療器具の存在によって生じる複数の不規則性とのうち1つまたは複数を含む、請求項31から32のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  34. 前記コントローラは、前記ディスプレイに、解釈された前記ジェスチャーに少なくとも部分的に基づいて、医療関連情報を含む複数の画像の中の、医療関連情報を含む特定の画像をレンダリングさせるように構成されている、請求項1から33のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  35. 前記コントローラは、前記投影面の反射率と、前記投影面の色とのうち少なくとも1つを示す測定データに基づいて前記ユーザインタフェースメニュー画像の前記投影を調節するように構成されている、請求項1から34のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
  36. 本明細書に開示されている、他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項1から35のいずれか一項に記載のシステム。
  37. 医療従事者が医療処置中に医療関連情報とインタラクトすることを可能にする方法であって、
    ユーザインタフェースメニュー画像を投影面に投影する段階と、
    前記投影面を含む検知ボリューム内の複数の物体に関する3次元位置情報をキャプチャする段階と、
    投影される前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に少なくとも部分的に基づいて、前記医療従事者によって作られる1つまたは複数のジェスチャーを含む前記3次元位置情報を解釈する段階と、
    ディスプレイに医療関連情報を含む画像をレンダリングさせる段階であって、前記画像および前記医療関連情報の少なくとも1つは、解釈された前記ジェスチャーに少なくとも部分的に基づく、段階と
    を含む、方法。
  38. 前記投影面は、ほぼ横方向の表面を含む、請求項37または本願の他のいずれかの請求項に記載の方法。
  39. 前記投影面は、前記医療処置を受けている患者が位置する手術台の一部を含む、請求項37から38のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  40. 前記医療従事者によって作られる前記ジェスチャーは、前記医療従事者の手のうち少なくとも1つによって作られる複数の動きを含む、請求項37から39のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  41. 前記3次元位置情報に少なくとも部分的に基づいて、前記ジェスチャーを、複数のジェスチャーを含むジェスチャーボキャブラリーの中の特定のジェスチャーであると解釈することを含む、請求項37から40のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  42. 前記ユーザインタフェースメニュー画像は、複数のユーザインタフェース画像セクションを含み、各ユーザインタフェース画像セクションは、前記ユーザインタフェースメニュー画像の異なる部分を占め、対応する機能に関連付けられている、請求項37から41のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  43. 各ユーザインタフェース画像セクションについて、対応する機能に関連付けられているグラフィックおよび/またはテキストを前記投影面上に投影する段階を含む、請求項42または本願の他のいずれかの請求項に記載の方法。
  44. 前記3次元位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つの上にある前記ジェスチャーの位置に基づく、前記複数のユーザインタフェース画像セクションの特定の1つと、前記対応する機能との選択として解釈する段階を含む、請求項42から43のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  45. 前記3次元位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つに対する前記ジェスチャーの近接度に基づく、前記複数のユーザインタフェース画像セクションの特定の1つと、前記対応する機能との選択として解釈する段階を含む、請求項42から44のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  46. 前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能との前記選択として解釈する段階の後で、前記3次元位置情報に基づいて、前記医療従事者によって作られるジェスチャーを、前記医療従事者によって作られる1つまたは複数の更なるジェスチャーを、前記ディスプレイ上に表示される前記医療関連情報とインタラクトするための1つまたは複数の対応するコマンドを含むものとして解釈する段階と、前記ディスプレイに、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、それらの1つまたは複数の対応するコマンドを有効にさせる段階とを含む、請求項44から45のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  47. サブメニュー画像を前記投影面に投影する段階であって、前記サブメニュー画像は、複数のサブメニュー画像セクションを含み、各サブメニュー画像セクションは、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられている前記サブメニュー画像の異なる部分を占める、段階と、
    前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの特定の1つに対する前記1つまたは複数の更なるジェスチャーの位置に基づいて、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの対応する1つとの選択を含むものとして解釈する段階とによって、
    前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、1つまたは複数の対応するコマンドを含むものとして解釈する段階を含む、請求項46または本願の他のいずれかの請求項に記載の方法。
  48. 各サブメニュー画像セクションについて、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられているグラフィックおよび/またはテキストを表示する段階を含む、請求項47または本願の他のいずれかの請求項に記載の方法。
  49. 前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの前記特定の1つの上にある前記1つまたは複数の更なるジェスチャーの前記位置に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものとして解釈する段階を含む、請求項47から48のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  50. 前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの前記特定の1つに対する前記1つまたは複数の更なるジェスチャーの近接度に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものとして解釈する段階を含む、請求項47から49のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  51. 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像をズームインするためのズームインコマンドと、前記ディスプレイ上に表示される画像をズームアウトするためのズームアウトコマンドとを含む、請求項46から50のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  52. 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される複数の画像の第1方向へのスクロールと、ディスプレイ上に表示される複数の画像の第2方向へのスクロールとを含む、請求項46から51のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  53. 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像の周囲の様々な方向でのパンニングを含む、請求項46から52のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  54. 前記1つまたは複数の対応するコマンドは、第1方向コマンドと、前記第1方向コマンドと逆方向の第2方向コマンドとを含む、請求項46から53のいずれか一項に記載の方法。
  55. 前記第1方向コマンドは、第1方向での第1ジェスチャーに関連付けられ、前記第2方向コマンドは、第2方向での第2ジェスチャーに関連付けられ、前記第1方向および前記第2方向は、互いにほぼ逆の向きである、請求項54または本願の他のいずれかの請求項に記載の方法。
  56. 前記3次元位置情報に基づいて、前記第1方向での前記ジェスチャーに関連付けられた動きの量と前記第1方向での前記ジェスチャーの位置と、前記第1方向での前記ジェスチャーの速度との、少なくとも1つに基づき、前記第1ジェスチャーに関連付けられた大きさメトリックを判定する段階を含む、請求項55、または、本願の他のいずれかの請求項に記載の方法。
  57. 前記ディスプレイに、前記大きさメトリックに基づいて、前記ディスプレイ上にレンダリングされた前記医療関連情報上で、1つまたは複数の対応するコマンドを有効にさせる段階を含む、請求項56、または、本願の他のいずれかの請求項に記載の方法。
  58. 前記1つまたは複数の対応するコマンドの各々は、方向性および大きさメトリックを含み、前記方法は、前記ディスプレイに、前記1つまたは複数の対応するコマンドの前記対応する1つの前記方向性および前記大きさメトリックに基づいて、前記ディスプレイ上でレンダリングされる前記医療関連情報上で、前記1つまたは複数の対応するコマンドの前記対応する1つを有効にさせる段階を含む、請求項47から53のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  59. 前記特定のジェスチャーは、前記医療従事者の手の1つを、前記投影面の閾値距離内の位置へ動かす段階を含む、請求項44から58のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  60. 前記医療従事者によって作られる前記特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能との前記選択として解釈した後で、前記プロジェクタに、前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能とが選択されたという表示を、前記ユーザインタフェースメニュー画像内に投影させる段階を含む、請求項44から59のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  61. 前記プロジェクタに、前記ユーザインタフェースメニュー画像内に前記表示を投影させる段階、および、前記医療従事者の身体の一部および前記医療従事者によって使用されている器具のうち、1つまたは複数に、前記表示を含む前記ユーザインタフェースメニュー画像の一部を投影する段階を含む、請求項60または他のいずれかの請求項に記載の方法。
  62. 前記ディスプレイに、解釈された前記ジェスチャーに少なくとも部分的に基づいて、医療関連情報を含む複数の画像の中の、医療関連情報を含む特定の画像をレンダリングさせる段階を含む、請求項37から61のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  63. 前記投影面の反射率、および、前記投影面の色のうち、少なくとも1つを示す測定データに基づいて、前記ユーザインタフェースメニュー画像の前記投影を調節する段階を含む、請求項37から62のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
  64. 本明細書に開示されている、他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項37から63のいずれか一項に記載の方法。
  65. 外科的処置を実施するためのシステムであって、
    ユーザインタフェースメニュー画像を投影面上に投影するためのプロジェクタと、
    前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャするための3次元光学撮像システムと、
    前記3次元光学撮像システムから前記3次元位置情報を受け取るべく接続され、投影される前記ユーザインタフェースメニュー画像に対するジェスチャーの位置に基づいて、前記3次元光学センサと前記投影面との間の空間において前記医療従事者が作る1つまたは複数の前記ジェスチャーを解釈するように構成されたコントローラと、
    ディスプレイと
    を備え、
    前記コントローラは、前記ディスプレイ上に複数の画像を表示させるべく接続され、医療関連情報を含む画像を前記ディスプレイ上に表示するように構成され、前記医療関連情報は、解釈された前記ジェスチャーに少なくとも部分的に基づく、
    システム。
  66. 請求項1から36、または、本願の他のいずれかの請求項の他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項65、または、本願の他のいずれかの請求項に記載のシステム。
  67. 本明細書に開示されている、他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項65から66の何れか一項に記載のシステム。
  68. 外科的処置を実施するための方法であって、
    ユーザインタフェースメニュー画像を投影面に投影する段階と、
    前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャする段階と、
    前記3次元位置情報が、前記医療従事者によって作られる1つまたは複数のジェスチャーを含むということを、投影される前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に基づいて解釈する段階と、
    解釈された前記ジェスチャーに少なくとも部分的に基づく、医療関連情報を含む画像を表示する段階と
    を含む、方法。
  69. 請求項37から64、または、本願の他のいずれかの請求項の他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項68または本願の他のいずれかの請求項に記載の方法。
  70. 本明細書に開示されている他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項68から69のいずれか一項に記載の方法。
  71. 医療従事者が医療処置の間に医療関連情報とインタラクトすることを可能にするシステムであって、
    ユーザインタフェースメニュー画像を投影面に投影するためのプロジェクタと、
    前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャするための3次元光学撮像システムと、
    前記3次元光学撮像システムから前記3次元位置情報を受け取るべく接続され、前記投影されるユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に基づいて、前記3次元光学撮像システムと前記投影面との間の空間において前記医療従事者によって作られる1つまたは複数のジェスチャーを解釈するように構成されているコントローラと、
    ディスプレイと
    を備え、
    前記コントローラは、前記ディスプレイ上に複数の画像を表示させるべく接続され、医療関連情報を含む画像を前記ディスプレイ上に表示するよう指示するように構成され、前記医療関連情報は、解釈された前記ジェスチャーに少なくとも部分的に基づく、
    システム。
  72. 請求項1から35、または、本願の他のいずれかの請求項の、他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項71または本願の他のいずれかの請求項に記載のシステム。
  73. 本明細書に開示されている他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項71から72のいずれか一項に記載のシステム。
  74. 医療従事者が医療処置中に医療関連情報とインタラクトすることを可能にする方法であって、
    ユーザインタフェースメニュー画像を投影面に投影する段階と、
    前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャする段階と、
    投影される前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に基づいて、前記医療従事者によって作られる1つまたは複数のジェスチャーを含む前記3次元位置情報を解釈する段階と、
    医療関連情報を含む画像を表示する段階であって、前記画像は解釈された前記ジェスチャーに少なくとも部分的に基づく、段階と
    を含む、方法。
  75. 請求項37から64、または、本願の他のいずれかの請求項の、他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項74、または、本願の他のいずれかの請求項に記載の方法。
  76. 本明細書に開示されている他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項74から75のいずれか一項に記載の方法。
JP2017508560A 2014-08-15 2015-08-13 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム Pending JP2017533487A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462038157P 2014-08-15 2014-08-15
US62/038,157 2014-08-15
PCT/CA2015/050764 WO2016023123A1 (en) 2014-08-15 2015-08-13 Methods and systems for performing medical procedures and for accessing and/or manipulating medically relevant information

Publications (2)

Publication Number Publication Date
JP2017533487A true JP2017533487A (ja) 2017-11-09
JP2017533487A5 JP2017533487A5 (ja) 2018-09-20

Family

ID=55303733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017508560A Pending JP2017533487A (ja) 2014-08-15 2015-08-13 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム

Country Status (6)

Country Link
US (1) US10403402B2 (ja)
EP (1) EP3180721A4 (ja)
JP (1) JP2017533487A (ja)
CN (1) CN106922190B (ja)
CA (1) CA2993876C (ja)
WO (1) WO2016023123A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071894A (ja) * 2019-10-30 2021-05-06 三菱電機株式会社 操作装置、操作方法及びプログラム
US11861145B2 (en) 2018-07-17 2024-01-02 Methodical Mind, Llc Graphical user interface system

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10722200B2 (en) * 2015-06-04 2020-07-28 Siemens Healthcare Gmbh Apparatus and methods for a projection display device on X-ray imaging devices
KR102560558B1 (ko) 2016-05-20 2023-07-27 매직 립, 인코포레이티드 사용자 인터페이스 메뉴의 콘텍추얼 인식
US10806533B2 (en) * 2016-07-14 2020-10-20 Intuitive Surgical Operations, Inc. Systems and methods for onscreen menus in a teleoperational medical system
EP3540580A4 (en) * 2016-11-08 2020-05-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US10331276B2 (en) * 2016-12-30 2019-06-25 Intel Corporation Projected interactive display surface interactivity determination
WO2018148845A1 (en) 2017-02-17 2018-08-23 Nz Technologies Inc. Methods and systems for touchless control of surgical environment
JP7267209B2 (ja) * 2017-06-08 2023-05-01 メドス・インターナショナル・エスエイアールエル 滅菌野及び他の作業環境のためのユーザインターフェースシステム
IT201700114495A1 (it) * 2017-10-11 2019-04-11 General Medical Merate S P A Sistema per il controllo di almeno un movimento di un componente motorizzato di un’apparecchiatura radiologica e apparecchiatura radiologica che lo utilizza
US10506224B2 (en) * 2017-11-07 2019-12-10 Oriental Institute Of Technology Holographic three dimensional imaging projecting medical apparatus
DE102017127791A1 (de) * 2017-11-24 2019-05-29 Aesculap Ag Medizinisches Steuersystem und medizinischer Sterilraum mit Steuersystem
US20190215460A1 (en) * 2018-01-09 2019-07-11 Osram Sylvania Inc. User Interface for Control of Building System Components
WO2019202982A1 (ja) * 2018-04-19 2019-10-24 富士フイルム株式会社 内視鏡装置、内視鏡操作方法、及びプログラム
EP3773219A1 (en) 2018-05-10 2021-02-17 Siemens Medical Solutions USA, Inc. Visual indicator system for patient bed
US11654304B2 (en) 2018-12-17 2023-05-23 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for determining a region of interest of a subject
CN110507337B (zh) * 2019-08-28 2023-07-11 上海联影医疗科技股份有限公司 一种医学设备控制系统、医学设备控制方法及装置
US10758309B1 (en) * 2019-07-15 2020-09-01 Digital Surgery Limited Methods and systems for using computer-vision to enhance surgical tool control during surgeries
CN114093493A (zh) * 2021-08-30 2022-02-25 武汉联影医疗科技有限公司 一种用于控制医学影像设备的界面的系统和方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258714A (ja) * 2003-02-24 2004-09-16 Toshiba Corp 画像表示装置
US20090077504A1 (en) * 2007-09-14 2009-03-19 Matthew Bell Processing of Gesture-Based User Interactions
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作
US20110181553A1 (en) * 2010-01-04 2011-07-28 Microvision, Inc. Interactive Projection with Gesture Recognition
JP2013068813A (ja) * 2011-09-22 2013-04-18 Casio Comput Co Ltd 投影装置、投影制御方法及びプログラム
JP2013218395A (ja) * 2012-04-05 2013-10-24 Sony Corp 情報処理装置、プログラム及び情報処理方法
US20130321346A1 (en) * 2012-05-31 2013-12-05 Opportunity Partners Inc. Interactive Surface
US20140049465A1 (en) * 2011-03-28 2014-02-20 Jamie Douglas Tremaine Gesture operated control for medical information systems
US20140177909A1 (en) * 2012-12-24 2014-06-26 Industrial Technology Research Institute Three-dimensional interactive device and operation method thereof
US20150208019A1 (en) * 2014-01-20 2015-07-23 Lenovo (Singapore) Pte. Ltd. Image correction

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007060606A1 (en) 2005-11-25 2007-05-31 Koninklijke Philips Electronics N.V. Touchless manipulation of an image
EP2017756A1 (de) * 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
WO2014000129A1 (en) * 2012-06-30 2014-01-03 Intel Corporation 3d graphical user interface
US9174068B2 (en) * 2012-10-05 2015-11-03 Siemens Aktiengesellschaft Navigation device for brachytherapy and method for operating the navigation device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258714A (ja) * 2003-02-24 2004-09-16 Toshiba Corp 画像表示装置
US20040242988A1 (en) * 2003-02-24 2004-12-02 Kabushiki Kaisha Toshiba Operation recognition system enabling operator to give instruction without device operation
US20120287044A1 (en) * 2007-09-14 2012-11-15 Intellectual Ventures Holding 67 Llc Processing of gesture-based user interactions using volumetric zones
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US20090077504A1 (en) * 2007-09-14 2009-03-19 Matthew Bell Processing of Gesture-Based User Interactions
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作
US20110181553A1 (en) * 2010-01-04 2011-07-28 Microvision, Inc. Interactive Projection with Gesture Recognition
US20140049465A1 (en) * 2011-03-28 2014-02-20 Jamie Douglas Tremaine Gesture operated control for medical information systems
JP2013068813A (ja) * 2011-09-22 2013-04-18 Casio Comput Co Ltd 投影装置、投影制御方法及びプログラム
JP2013218395A (ja) * 2012-04-05 2013-10-24 Sony Corp 情報処理装置、プログラム及び情報処理方法
US20130321346A1 (en) * 2012-05-31 2013-12-05 Opportunity Partners Inc. Interactive Surface
US20140177909A1 (en) * 2012-12-24 2014-06-26 Industrial Technology Research Institute Three-dimensional interactive device and operation method thereof
US20150208019A1 (en) * 2014-01-20 2015-07-23 Lenovo (Singapore) Pte. Ltd. Image correction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JUSTIN H.TAN: "Informatics in Radiogy:Developping a Touchless User Interface for Interaoparative Image Control durl", RADIOGRAPHICS, vol. 33, no. 2, JPN7019002129, 30 April 2013 (2013-04-30), pages 61 - 70, ISSN: 0004216059 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11861145B2 (en) 2018-07-17 2024-01-02 Methodical Mind, Llc Graphical user interface system
JP2021071894A (ja) * 2019-10-30 2021-05-06 三菱電機株式会社 操作装置、操作方法及びプログラム

Also Published As

Publication number Publication date
CN106922190A (zh) 2017-07-04
EP3180721A4 (en) 2018-04-04
US10403402B2 (en) 2019-09-03
US20170228104A1 (en) 2017-08-10
CA2993876C (en) 2023-03-07
EP3180721A1 (en) 2017-06-21
CN106922190B (zh) 2020-09-18
CA2993876A1 (en) 2016-02-18
WO2016023123A1 (en) 2016-02-18

Similar Documents

Publication Publication Date Title
US10403402B2 (en) Methods and systems for accessing and manipulating images comprising medically relevant information with 3D gestures
US11662830B2 (en) Method and system for interacting with medical information
JP7146772B2 (ja) コンテクストオーバレイを提供する拡張現実インターベンションシステム
US20230363833A1 (en) Methods And Systems For Robot-Assisted Surgery
US10420533B2 (en) Ultrasound diagnosis apparatus and control method thereof
US9329675B2 (en) System with 3D user interface integration
ES2941511T3 (es) Sistema de escáner 3D con escáner de mano
EP3454177B1 (en) Method and system for efficient gesture control of equipment
US9292197B2 (en) Method, apparatus and computer program product for facilitating the manipulation of medical images
JP6501525B2 (ja) 情報処理装置、情報処理方法およびプログラム
USRE48221E1 (en) System with 3D user interface integration
KR101611484B1 (ko) 의료영상의 제공방법
JP6462358B2 (ja) 医用画像表示端末および医用画像表示プログラム
Gallo et al. Wii remote-enhanced hand-computer interaction for 3D medical image analysis
US20200363877A1 (en) Healthcare information manipulation and visualization controllers
JP6902012B2 (ja) 医用画像表示端末および医用画像表示プログラム
JP7279133B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200218