JP6994466B2 - 医療情報との相互作用のための方法およびシステム - Google Patents

医療情報との相互作用のための方法およびシステム Download PDF

Info

Publication number
JP6994466B2
JP6994466B2 JP2018546777A JP2018546777A JP6994466B2 JP 6994466 B2 JP6994466 B2 JP 6994466B2 JP 2018546777 A JP2018546777 A JP 2018546777A JP 2018546777 A JP2018546777 A JP 2018546777A JP 6994466 B2 JP6994466 B2 JP 6994466B2
Authority
JP
Japan
Prior art keywords
medical
electric field
reference object
gesture
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018546777A
Other languages
English (en)
Other versions
JP2019501747A (ja
JP2019501747A5 (ja
Inventor
ジラクネジャド,ニマ
サクセナ,プラナブ
ポーワル,アンシュル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NZ Technologies Inc
Original Assignee
NZ Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NZ Technologies Inc filed Critical NZ Technologies Inc
Publication of JP2019501747A publication Critical patent/JP2019501747A/ja
Publication of JP2019501747A5 publication Critical patent/JP2019501747A5/ja
Application granted granted Critical
Publication of JP6994466B2 publication Critical patent/JP6994466B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、医療情報と相互作用するための方法およびシステムの分野に関する。
医療施術者(例えば、外科医、介入放射線医、看護師、医療助手、他の医療技術者など)が、医療的、外科的および介入的処置および/または手術の実行の前、最中および/または後などの、医学的に関連する情報などを操作する能力および/または他の様態で相互作用する能力にアクセスすることを可能にすることが望まれている。このような所望の医療情報には、非限定例として、放射線画像、血管造影画像、患者の身体の他の形態の画像、医療処置を受けている患者に関連する他の情報、処置自体に関連する他の情報、処置されている状態に関連する他の情報などが含まれ得る。このような所望の医療情報は、処置の実施前、処置の実行中、および/または処置の実行後に入手することができ、医療施術者が、画像誘導および/または画像依存医療処置の間に治療計画を策定または変更することを可能にすることができる。
現在、放射線画像のような医療情報への術中アクセス、操作および/または相互作用は、外科的滅菌環境の外部に位置する制御室のコンピュータワークステーション上で行われている。そのようなコンピュータワークステーションは、適切なネットワーク通信または他のデジタルアクセス技術を介して、画像保管通信システム(PACS)、医用デジタル画像形成通信システム(DICOM)、病院情報システム(HIS)、放射線情報システム(RIS)などにアクセスすることによって、患者に関する画像データのアーカイブなどの情報にアクセスすることができる。そのようなワークステーションは、その後、個々の画像を適切なディスプレイ上に表示することができ、従来のコンピュータベースのユーザインターフェースを介して、例えば、マウスおよびキーボードならびにソフトウェア実装ユーザインターフェースを使用し、画像を操作することを可能にすることができる。ワークステーションは通常、外科的滅菌環境の外部に位置しているため、様々な画像にアクセスしたい放射線医のような医療施術者は、典型的には、(a)処置中に1つ以上の原因を受けて処置を離脱して手洗い消毒するか、または、(b)所望の画像にアクセスする作業を、技術者または看護師のような別の人間に委任するか、いずれかを行わなければならず、委任された者はその後、放射線医の指示の下でワークステーションを操作しなければならない。
(a)の場合、医療施術者が画像ナビゲーションおよび解釈の目的で非滅菌制御室と滅菌手術環境との間を行き来することが必要であることで、不慮に汚染物質が非滅菌制御室から滅菌環境に転移することによって滅菌環境を汚染するリスクが増大し、手術を完了するために必要な時間が延長し、それによって処置費用が増加し、および/または、医療施術者の認識力の集中を妨害し、それにより患者の医学的リスクを増大させる可能性がある。(b)の場合、一般的に、放射線医とワークステーションを操作する技術者との間の緊密な連絡が必要となる。関連情報(例えば、画像の移動量または拡大量)の伝達は困難で時間がかかり、何度か反復する必要がある場合がある。異なるソフトウェアプラットフォームを使用し、供給元固有の多層メニューを通じてナビゲートし、キーボードおよびマウスを使用して立体画像と相互作用することが必要であることによって、このプロセスはより困難になる可能性がある。(a)と(b)の両方の場合において、外科医の疲労に寄与する要因があり、これは外科的および/または介入的処置中の大きな問題である。
術中計画立案および標的治療の確認のために多数の放射線画像にますます依拠することになることによって、放射線医が、滅菌環境中にいながら、直感的、包括的かつ適時の様式で、大量の画像情報(および/または他の医療関連情報)に迅速にアクセス、操作、および/または他の様態で相互作用する能力を向上させるソリューションを開発することが一般的に所望されている。
したがって、医療情報と相互作用するための改善された方法およびシステムが必要とされている。
第1の広範な態様によれば、医療施術者が医療情報と相互作用することを可能にするシステムが提供され、システムは、検知ユニットであって、少なくとも、医療施術者によって検知ユニットと相互作用するために使用される基準物体の位置を検出するための、検知ユニットと、検知ユニットによって検出される基準物体の位置を使用して医療施術者によって実行されるジェスチャを判定するステップと、受信されるジェスチャに対応する医療情報に対するコマンドを識別し、医療情報を表示ユニットに表示するためにそのコマンドを実行するステップと、基準物体の仮想表現、ならびに、検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、GUI内の基準物体の仮想表現の位置は、検知ユニットによって検出される基準物体の位置に応じて選択され、少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、GUIを医療情報と共に表示ユニット上に表示するステップとを行うために、検知ユニットと通信する少なくとも1つの制御ユニットとを備える。
一実施形態では、コントローラは、医療情報に隣接してGUIを表示するように構成される。
一実施形態では、コントローラは、GUIおよび医療情報を同じ表示装置に表示するように構成される。
別の実施形態では、コントローラは、医療施術者が表示されている医療情報を見るときにGUIが医療施術者の視野にあるように、GUIおよび医療情報を、互いに隣接して位置決めされている別々の表示装置に表示するように構成される。
一実施形態では、検知ユニットは、基準物体の向きを検出するようにさらに適合され、GUI内の基準物体の仮想表現の向きは、検知ユニットによって検出された基準物体の向きに応じて選択される。
一実施形態では、検知ユニットは、基準物体の位置および向きを判定し、医療施術者によって実行されるジェスチャを判定するように適合された単一のセンサを含む。
一実施形態では、単一のセンサは光センサを含む。
一実施形態では、光センサはカメラを含む。
一実施形態では、カメラは、3Dカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む。
一実施形態では、カメラは、基準面を撮像するように構成される。
一実施形態では、システムは、カメラによって撮像される基準面上に少なくとも1つの基準アイコンを投影するプロジェクタをさらに備え、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
一実施形態では、基準面は、少なくとも1つの基準アイコンが表示される画面を含み、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
別の実施形態では、検知ユニットは、基準物体の位置を判定するための第1のセンサと、基準物体の向きを判定する第2のセンサとを備え、ジェスチャは、第1のセンサおよび第2のセンサのうちの1つによって判定される。
一実施形態では、第1のセンサは、基準物体の位置を判定するための電場センサを含み、第2のセンサは、基準物体の向きを判定するための光センサを含む。
一実施形態では、光センサはカメラを含む。
一実施形態では、カメラは、2Dカメラ、モノクロカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む。
一実施形態では、カメラは、電場センサの上に位置する領域を撮像するように位置決めされる。
一実施形態では、システムは、電場センサ上または電場センサの周りに少なくとも1つの基準アイコンを投影するプロジェクタをさらに備え、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
一実施形態では、システムは、少なくとも1つの基準アイコンが表示される画面をさらに備え、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応し、電場センサは、画面上に位置決めされる。
一実施形態では、基準物体は、医療施術者の身体部分を含む。
一実施形態では、身体部分は、手および少なくとも1本の指のうちの一方を含む。
一実施形態では、基準物体は、導電性材料および半導体材料のうちの1つから作成される。
一実施形態では、基準物体は、ペン、スタイラス、ボール、リング、およびメスのうちの1つを含む。
一実施形態では、コマンドは、コンピュータマシンに接続可能な周辺装置からの所与の既知のコマンドに対応する。
一実施形態では、所与の既知のコマンドは、マウスコマンド、フットペダルコマンド、ジョイスティックコマンド、およびキーボードコマンドのうちの1つに対応する。
一実施形態では、医療情報は、医療画像、3Dモデル、およびそれらの任意の組み合わせまたはシーケンスを含む。
一実施形態では、医療情報に対するコマンドは、すでに表示されている医療画像の少なくとも1つの特性の変更を引き起こすコマンドを含む。
一実施形態では、少なくとも1つの特性は、形状、サイズ、向き、色、明るさ、テキストおよびコントラストの少なくとも1つを含む。
一実施形態では、コントローラは、医療施術者による所与の選択に応じて、少なくとも1つの仮想アイコンのうちの1つの外観を変更するように適合される。
別の広範な態様によれば、医療施術者が医療情報と相互作用することを可能にするコンピュータ実施方法が提供され、方法は、医療施術者によって検知ユニットと相互作用するために使用される基準物体の位置を検出するステップと、検出される基準物体の位置を使用して医療施術者によって実行されるジェスチャを判定するステップと、受信されるジェスチャに対応する医療情報に対するコマンドを識別し、医療情報を表示ユニットに表示するためにそのコマンドを実行するステップと、基準物体の仮想表現、ならびに、検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、GUI内の基準物体の仮想表現の位置は、検出される基準物体の位置に応じて選択され少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、GUIを医療情報と共に表示ユニット上に表示するステップとを含む。
一実施形態では、上記GUIを表示するステップは、医療情報に隣接してGUIを表示することを含む。
一実施形態では、上記GUIを表示するステップは、コントローラは、GUIおよび医療情報を同じ表示装置に表示することを含む。
別の実施形態では、上記GUIを表示するステップは、医療施術者が表示されている医療情報を見るときにGUIが医療施術者の視野にあるように、GUIおよび医療情報を、互いに隣接して位置決めされている別々の表示装置に表示することを含む。
一実施形態では、この方法は、基準物体の向きを検出するステップをさらに含む。
一実施形態では、上記基準物体の位置および向きを検出するステップは、基準物体の位置および向きを判定し、医療施術者によって実行されるジェスチャを判定するように適合された単一のセンサを使用して実施される。
一実施形態では、上記検出するステップは光センサを使用して行われる。
一実施形態では、上記検出するステップはカメラを使用して行われる。
一実施形態では、上記検出するステップは、3Dカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを使用して実施される。
一実施形態では、カメラは、基準面を撮像するように構成される。
一実施形態では、方法は、カメラによって撮像される基準面上に少なくとも1つの基準アイコンを投影するステップをさらに含み、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
一実施形態では、基準面は、少なくとも1つの基準アイコンが表示される画面を含み、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
別の実施形態では、上記基準物体の位置を判定するステップは、第1のセンサを使用して実施され、上記基準物体の向きを判定するステップは、第2のセンサを使用して実施され、ジェスチャは、第1のセンサおよび第2のセンサのうちの1つを使用して判定される。
一実施形態では、第1のセンサは、基準物体の位置を判定するための電場センサを含み、第2のセンサは、基準物体の向きを判定するための光センサを含む。
一実施形態では、光センサはカメラを含む。
一実施形態では、カメラは、2Dカメラ、モノクロカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む。
一実施形態では、方法は、電場センサの上に位置する領域を撮像するように、カメラを位置決めするステップをさらに含む。
一実施形態では、方法は、電場センサ上または電場センサの周りに少なくとも1つの基準アイコンを投影するステップをさらに含み、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
一実施形態では、方法は、少なくとも1つの基準アイコンを画面に表示するステップをさらに含み、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応し、電場センサは、画面上に位置決めされる。
一実施形態では、基準物体は、医療施術者の身体部分を含む。
一実施形態では、身体部分は、手および少なくとも1本の指のうちの一方を含む。
一実施形態では、基準物体は、導電性材料および半導体材料のうちの1つから作成される。
一実施形態では、基準物体は、ペン、スタイラス、ボール、リング、およびメスのうちの1つを含む。
一実施形態では、コマンドは、コンピュータマシンに接続可能な周辺装置からの所与の既知のコマンドに対応する。
一実施形態では、所与の既知のコマンドは、マウスコマンド、フットペダルコマンド、ジョイスティックコマンド、およびキーボードコマンドのうちの1つに対応する。
一実施形態では、医療情報は、医療画像、3Dモデル、およびそれらの任意の組み合わせまたはシーケンスを含む。
一実施形態では、医療情報に対するコマンドは、すでに表示されている医療画像の少なくとも1つの特性の変更を引き起こすコマンドを含む。
一実施形態では、少なくとも1つの特性は、形状、サイズ、向き、色、明るさ、テキストおよびコントラストの少なくとも1つを含む。
一実施形態では、方法は、医療施術者による所与の選択に応じて、少なくとも1つの仮想アイコンのうちの1つの外観を変更するステップをさらに含む。
以下では、ジェスチャは静的ジェスチャまたは動的ジェスチャとして理解する必要がある。静的ジェスチャは、所与の期間内で実質的に動かない手の特定の構成、位置および/または向きとして定義される。例えば、静的ジェスチャは、拳を閉じて指を1本立てることによって構成することができる。動的ジェスチャは、所与の期間内での手の動きとして定義される。手は、一定であってもよく、または手の動きの間に変化してもよい特定の構成、位置および/または向きを有してもよい。例えば、動的ジェスチャは、他の指が折り畳まれている間に人指し指を回転させることに対応することができる。
本発明のさらなる特徴および利点は、添付の図面と組み合わせて取り上げられる、以下の詳細な説明から明らかになるであろう。
第1の実施形態による、医療情報と相互作用するためのシステムのブロック図である。 第2の実施形態による、医療情報と相互作用するためのシステムのブロック図である。 一実施形態による、電場センサの上または周囲にユーザインターフェースを表示するためのプロジェクタを備える、医療情報と相互作用するシステムを示す図である。 一実施形態による、アイコンを表示するためのディスプレイを組み込まれているセンサを備える、医療情報と相互作用するシステムを示す図である。 一実施形態による、ロボットアームを備える、医療情報にアクセスするためのシステムを示す図である。 一実施形態による、図3のシステムが設置されている手術室、および制御室の概略図である。 一実施形態による、手と、電場センサによって生成される電場との間の相互作用を示す図である。 一実施形態による、電場センサに対する指先の位置を示す図である。 一実施形態によるエアホイールジェスチャを示す図である。 1つの例示的なメニュー画像を示す図である。 一実施形態による、医療施術者によって実行される左スワイプジェスチャを示す図である。 一実施形態による、医療施術者によって実行されるエアホイールジェスチャを示す図である。 一実施形態による、電場センサの無効化を示す図である。 一実施形態による、第1の構成にあるロボットアームに固定された電場センサを示す図である。 一実施形態による、第2の異なる構成にある図9aのロボットアームを示す図である。 一実施形態による、手と電場センサの表面との間の距離に感応する電場センサとの相互作用を示す図である。 一実施形態による、3D画像を回転させるための平行移動ジェスチャを示す図である。 一実施形態による、医療施術者が医療データと相互作用することを可能にする方法を示すフローチャートである。 一実施形態による、医療施術者が医療情報と相互作用することを可能にし、医療施術者に視覚フィードバックを提供するためのシステムのブロック図である。 一実施形態による、医療データとともに表示される例示的なグラフィカルユーザインターフェースを示す図である。 一実施形態による、医療画像およびオーバーレイグラフィカルユーザインターフェースの表示を示す図である。 一実施形態による例示的な静的ジェスチャを示す図である。 一実施形態による例示的な指タッピングジェスチャを示す図である。 一実施形態による、医療情報とオーバーレイGUIの両方を表示するための単一の表示装置を備える、医療情報と相互作用するシステムを示す図である。 一実施形態による、医療情報およびGUIを表示するための2つの別個の表示装置を備える、医療情報と相互作用するシステムを示す図である。
添付の図面全体を通して、同様の特徴は同様の参照符号によって識別されることに留意されたい。
本システムおよび方法は、医療施術者が、電場センサ(例えば、限定はしないが容量性近接センサのアレイ)を介して医療情報にアクセス、操作および/または他の様態で相互作用することを可能にする。例えば、医療処置中、医療施術者は、表示された医療情報を制御するために、手または身体のジェスチャ(例えば、無接触ジェスチャ)を使用して電場センサと相互作用することができる。ジェスチャは、医療施術者の手または指のような手の部分の構成、位置および/または動きに基づくことができる。例えば、ジェスチャは、医療施術者の手の少なくとも1本の指の構成、位置および/または動きに基づいてもよい。ジェスチャは、電場センサに対するジェスチャのロケーション/位置(例えば、施術者の手、指または指先のロケーション)に基づいて解釈することができる。ジェスチャは、付加的にまたは代替的に、ジェスチャの構成または動き(例えば、医療施術者の手または指の構成または動き)に基づいてもよい。そのようなジェスチャ位置、動きまたは構成は、電場センサに対するものであり得る。別の実施形態では、施術者は、電場センサと相互作用するために、手の中に導電性材料から作成される物体のような物体を保持してもよい。例えば、医療施術者は、ペン、スタイラス、金属メスなどを保持してもよい。この場合、ジェスチャは、施術者が保持する物体の構成、位置および/または動きに基づくことができる。ジェスチャはまた、施術者が保持する物体の構成、位置および/または動き、ならびに、物体を保持する施術者の手の構成、位置および/または動きに基づいてもよい。
そのようなシステムおよび方法は、医療施術者が、滅菌環境を離脱して手洗い消毒する必要なく、または処置が行われているベッド(ワークステーションが部屋の隅にある場合)を離れる必要なしに、また、滅菌環境の外部にいる技術者と連絡する必要なしに、医療情報またはデータと相互作用することを可能にする。一例として、医療処置中にアクセス、操作および/または他の方法で相互作用される医療情報またはデータは、患者の身体の放射線画像、血管造影画像、または他の形態の画像のような2Dまたは3D医療画像、患者の身体に関連しない医療ビデオ、2Dまたは3D画像、医療処置を受けている患者に関連する情報、処置自体に関する情報などを含むことができる。医療施術者と電場センサとの相互作用の結果として、医療情報が医療施術者に表示される。表示される情報は、2D/3D画像、テキスト、ビデオなどを含むことができる。
一実施形態では、システムは、医療施術者に視覚的フィードバックを提供するために、医療施術者に隣接してユーザインターフェースメニュー画像を投影するための投影装置を備えることができる。例えば、ユーザインターフェースメニューは、電場センサに隣接して、または電場センサの周りに投影することができる。
電場センサは、医療施術者によって実行され、電場センサによって検出されるジェスチャを医療データに対するコマンドに変換するように適合されたコントローラと通信している。一実施形態では、コントローラは、表示ユニットまたはモニタディスプレイと通信している。表示ユニットは、医療画像、テキスト、グラフ、図面、グラフィックスなどを含む画像のような画像をレンダリングするように適合されている。表示ユニットはまた、ビデオを表示するために使用することもできる。コントローラによる判定されたコマンドの実行によって、表示ユニット上に医療情報が表示される。例えば、医療施術者によって実行される第1のジェスチャは、所与の医療画像の表示を指令することができ、一方で、第2の異なるジェスチャは、患者の医療ファイルの表示を指令することができる。別の実施形態では、コントローラは、表示ユニットと通信しているコンピュータマシンと通信している。この場合、コントローラは、ディスプレイに画像を表示するためにコマンドを実行するコンピュータマシンにコマンドを送信するように適合されている。
ビデオは一連の画像であること、および、「画像を表示する」という表現は、ビデオの所与の画像またはビデオを表示するものとして理解され得ることを理解されたい。画像はテキストのみを含むことができることも理解されたい。同様に、画像は、テキスト、絵図、写真、図面、表、グラフィックスなどを含むことができる。
本システムが処置の間に使用される実施形態では、そのようなジェスチャの解釈に基づいて、コントローラは、医療施術者に見える画像(または他の情報)を表示ユニットにレンダリングさせることができる。表示される画像は、処置が実行されている患者に関する画像のライブラリからの画像または画像の一部分を含むことができる。そのようなジェスチャの解釈に基づいて、コントローラは、表示画像を操作するか、またはさらなる画像を表示することができる。例えば、そのような操作は、特定の表示画像に対してズームインまたはズームアウトすること、特定の表示画像の表示部分をパンまたは他の様態で動かすこと、特定の表示画像の輝度、コントラストおよび/または色パラメータを調整すること、表示用の新たな画像を選択するために画像のライブラリをスクロールすることなどを含むことができる。
図1aは、医療施術者が医療情報と相互作用することを可能にするためのシステム10の一実施形態を示す。システム10は、少なくとも電場センサまたは電場近接センサ12と、センサからデータを受信するために電場センサ12と通信するコントローラ14とを備える。
電場センサは、所定の電磁場または所定の静電場などの所定の電場を生成し、ジェスチャを検出および識別するために生成された電磁場を測定するように適合される。電場センサが電場を発生させる実施形態において、医療施術者が手および/または物体を使用して電場内でジェスチャを実行するとき、電場センサによって生成された電場は、施術者の手および/または物体の存在によって妨げられ、電場センサが、電場センサ12によって生成された所定の電場と電場センサ12によって測定された電場とを比較することによって、電場の変化を検出する。所定の電場と測定された電場との間の変化は、電場内の医療施術者のジェスチャによって引き起こされる歪みに対応する。電場センサ12は、電場の変化から医療施術者によって実行されたジェスチャを判定し、判定されたジェスチャをコントローラ14に送信するようにさらに適合される。
任意の適切な電場センサを使用することができることを理解されたい。例えば、容量性近接センサのアレイを含む電場センサを使用することができる。別の例では、電場センサは、電極のアレイを含むことができる。
一実施形態では、電場センサ12によって出力されるジェスチャは、時間の関数としての、手の所与の点の2Dまたは3D位置などの医療施術者の手の2Dまたは3D位置に対応する。例えば、手の位置は、電場センサ12に最も近い手の点として定義することができる。例えば、ジェスチャは、指先の2Dまたは3D位置に対応することができる。別の例では、ジェスチャは、複数の指の指先の2Dまたは3D位置に対応することができる。さらなる例では、ジェスチャは、医療施術者によって保持される物体の先端の2Dまたは3D位置に対応し得る。位置は、位置の変化を参照することもできることを理解されたい。
別の実施形態では、電場センサ12によって出力されるジェスチャは、医療施術者が電場センサ12によって生成される電場内でジェスチャを実行するときに生じる、判定される電場の変化に対応する。この場合、コントローラ14は、電場センサ12から受信される電場の変化から、医療施術者が実行するジェスチャを判定するように適合される。
一実施形態では、電場センサ12によって出力されるジェスチャは、コントローラ14に対する離散的な入力に対応する。この場合、医療施術者が行うジェスチャは実質的に静的である。すなわち、医療施術者は、手、指、および/または物体を所与の期間にわたって、電場内の固定位置に位置決めする。例えば、静的ジェスチャは、座標(X、Y、Z)によって表される位置に対応することができる。別の例では、静的ジェスチャは、(δX、δY、δZ)によって表される位置の変化に対応することができる。
別の実施形態では、電場センサ12によって出力されるジェスチャは、コントローラ14に対する連続入力に対応する。この場合、医療施術者によって実行されるジェスチャは、連続的または動的である。すなわち、医療施術者は、所与の期間中、手、指、および/または物体を電場内で実質的に連続的に動かす。例えば、連続または動的ジェスチャは、時間の関数としての座標(X(t)、Y(t)、Z(t))によって表すことができる。
コントローラ14は、電場センサ12からジェスチャを受信し、実行すべきコマンドまたは動作を判定するように適合されている。実行されるべきコマンドは医療情報に関連する。コントローラ14は、実行すべきコマンドを判定するためにデータベースにアクセスする。データベースは、実行されるべきコマンドのセットを備え、各コマンドはそれぞれの所定のジェスチャに関連付けられている。各コマンドは、医療情報、より詳細には、医療情報の表示、修正、および/または選択に関連する。したがって、コントローラ14は、受信したジェスチャをデータベースに格納された所定のジェスチャと比較することによって、実行されるべきコマンドを取り出すように適合される。受信したジェスチャが所与の所定のジェスチャと一致すると、コントローラ14は、実行されるべきコマンドを、所与の所定のジェスチャに対応するコマンドであるとして識別する。例えば、第1のコマンドの実行により、患者に関する医療情報を含むテキストが表示され得る。別の例では、第2のコマンドの実行によって医療画像が表示され得る。さらなる例では、第3のコマンドの実行によって、表示された医療画像が回転され得る。さらに別の例では、第4のコマンドの実行により、医療画像が拡大され得る。
電場センサ12によって出力されるジェスチャが、座標(X、Y、Z)のような離散位置または座標(X(t)、Y(t)、Z(t))などの連続位置に対応する実施形態では、データベースは、実行されるべき所定のコマンドのセットを含み、各コマンドは、それぞれの所定の離散位置またはそれぞれの所定の一連の位置に関連付けられる。この場合、コントローラ14は、受信された位置をデータベースに格納された位置のセットと比較し、実行されるべきコマンドを、受信された位置と一致する所定の位置に関連する所定のコマンドであるとして識別するように構成される。
電場センサ12によって出力されるジェスチャが電場の変化に対応する実施形態では、データベースは実行されるべき所定のコマンドのセットを含み、各コマンドはそれぞれの所定の電場の変化に関連付けられる。この場合、コントローラ14は、受信される電場の変化をデータベースに格納された所定の変化電場と比較することによって、実行すべきコマンドを取り出すように適合される。受信された電場の変化が所与の所定の電場の変化に一致するとき、電場の所与の所定の変化に対応するコマンドは、実行されるべきコマンドであるとして識別される。データベースに格納されたコマンドは医療情報に関連している。
一実施形態では、所定のコマンドおよび対応するジェスチャのデータベースは、コントローラ14上にローカルに格納される。別の実施形態では、所定のコマンドのデータベースは外部に格納され、コントローラはデータベースが格納されているコンピュータマシンと通信している。
図1aに示すように、コントローラ14は表示ユニット16と通信している。表示ユニット16は、テキスト、グラフ、医療画像などの画像、ビデオを表示するように適合されている。実行されるべきコマンドが識別されると、コントローラはコマンドを実行するように適合される。このコマンドの実行により、表示ユニット16は医療情報を含む画像または画像の一部分を表示させられる。上述したように、表示される画像は、患者に関する情報などのテキストを含むことができる。別の例では、表示される画像は医療画像に対応することができる。一実施形態では、コントローラ14は、医療データベースが格納されている少なくとも1つのコンピュータマシンと通信している。医療データベースは、医療画像、医療ビデオ、医療情報(例えば、患者ファイル)などの医療情報を含む。
一実施形態では、システム10は、ユーザインターフェースメニュー画像または他の有用なグラフィックスを表面上に投影するためのプロジェクタ18をさらに備える。メニュー画像は、各々がシステム10の異なる動作モードを表す少なくとも1つのアイコンを含むことができる。一実施形態では、アイコンが電場センサ12に隣接して位置決めされるように、メニュー画像は、電場センサ12の上および周囲に投影される。別の実施形態では、メニュー画像は、電場センサ12から離れて投影されてもよい。一実施形態では、プロジェクタはコントローラ16から独立している。別の実施形態では、プロジェクタはコントローラ16と通信し、コントローラ16によって制御される。この場合、プロジェクタは、電場センサ12に隣接するアイコンを表す画像を投影することができる。例えば、各アイコンは、システム10の動作モードを表すことができ、コントローラ16は、医療施術者に視覚的フィードバックを提供するために、実際の動作モードに対応する所与のアイコンの色を所与の色に設定するように適合することができる。例えば、すべてのアイコンを白色にすることができ、医療施術者が電場センサ12と相互作用することによって所与の動作モードを選択するとき、コントローラは、プロジェクタを介して、選択された動作モードに対応するアイコンの色を変更する。例えば、選択された動作モードに対応するアイコンの色を黄色に変更することができる。
コントローラ14は表示ユニット16に接続され、検出されたジェスチャに従って判定されたコマンドを実行するように適合されているが、図1bは、コントローラ24が、表示ユニット16に接続されたコンピュータマシン26にコマンドを送信するように適合されている、医療情報と相互作用するためのシステム20の一実施形態を示す。この場合、コントローラは、コントローラ14に関して上述したように、電場センサ12からジェスチャを受信し、受信したジェスチャに対応するコマンドを判定するように適合される。しかし、コマンドは、その後、表示ユニット16の医療情報を表示するためにコマンドを実行するように適合されたコンピュータマシン26に送信される。この場合、コントローラ16は、電場センサ12とコンピュータマシン26との間のインターフェースと考えることができる。コントローラ24は、電場センサ12によって検出されたジェスチャを、コンピュータマシンによって知られ、理解されているコマンドに変換するように適合されている。例えば、コントローラ24は、電場センサ12によって検出されたジェスチャを、マウスコマンド(左クリックもしくは右クリックまたはダブルクリックなど)またはキーボードコマンドなどの、コンピュータ周辺機器によって生成されるコマンドに変換することができる。コンピュータマシン26は、その後、コンピュータマシン26に接続された周辺機器からコマンドを受信したかのように、コントローラ24から受信したコマンドを実行する。
一実施形態では、システム10は、患者の医療処置中に使用される。この場合、電場センサ12、コントローラ14、表示ユニット16、および、ある場合はプロジェクタ18は、処置が行われる殺菌環境内に配置される。コントローラは、非殺菌環境に対応する制御室内に位置する制御室ワークステーションのコンピュータマシンと通信することができる。制御室ワークステーションは、患者に関する医療画像および医療情報が格納されているサーバと通信することができる。コントローラ14によって識別されたコマンドが医療画像または医療テキストの表示に対応するとき、コントローラ14は、取り出されるべき医療画像または医療情報を示す要求を制御室ワークステーションに送信する。制御室ワークステーションは、適切なサーバと通信して、コントローラ14によって要求された情報を取り出す。要求された医療画像または医療テキストを受信すると、制御室ワークステーションは受信したデータをコントローラ14に送信し、コントローラ14は受信した医療画像またはテキストを表示ユニット16に表示するためにローカルに格納する。
図1bに示すシステム20にも同じことが当てはまり得る。この場合、コンピュータマシン26は、制御室ワークステーション26に対応することができ、コントローラ24は、電場センサ12から受信したジェスチャを、コマンドを実行する制御室ワークステーション26に送信されるコマンドに変換するように適合される。
以下では、医療施術者が医療処置中に医療情報と相互作用することを可能にする例示的なシステム50について説明する。
上述したように、システムは、ユーザインターフェースメニュー画像を投影するためのプロジェクタを備えることができる。図2は、電場センサ31と、コントローラ32と、コンピュータ33と、表示ユニット34と、プロジェクタ35とを備えるシステム30の一実施形態を示す。コントローラ32は、電場センサ31およびプロジェクタ35と通信する。プロジェクタ35は、各々がシステム30の動作モードを表す4つのアイコン36a、36b、36cおよび36dを含むユーザインターフェースメニュー画像を投影するように適合されている。電場センサ31は、医療施術者によって(図示のように)患者の上に、または患者が横たわっているベッドに隣接して位置決めされる。
一実施形態では、コントローラ32は、以下に説明するように、医療施術者にシステム30の実際の動作モードに関する視覚フィードバックを提供するために、4つのアイコン36a~36dの外観を変更するように適合される。例えば、コントローラ32は、実際の動作モードを表すアイコンの色および/または形状を変更することができる。
図3は、電場センサ38と、コントローラ32と、コンピュータ33と、表示ユニット34とを備えるシステム37の一実施形態を示す。電場センサ38は、その上面に一体化された4つのディスプレイ39a、39b、39c、および39dを備えている。コントローラ32は、各ディスプレイ39a~39d上にアイコンを表示するように適合されており、各アイコンは、システムのそれぞれの動作モードを表す。
一実施形態では、コントローラ32は、医療施術者にシステム37の実際の動作モードに関する視覚フィードバックを提供するために、ディスプレイ39a~39d上に表示されている4つのアイコンの外観を変更するように適合される。例えば、コントローラ32は、実際の動作モードを表すアイコンの色、輝度、および/または形状を変更することができる。
図4は、医療施術者によって実行される手および身体のジェスチャを検出するように適合された電場センサ52と、少なくとも2自由度(DOF)(図示せず)を有する関節式ロボットアーム54と、メニュー画像を投影するためのオーバーヘッド光学投影器などの視覚フィードバックシステム(VFS)56と、電場センサ52の位置を追跡するためのモノクロカメラまたは飛行時間型カメラなどの光学式2Dまたは3D位置追跡装置58と、コントローラまたは組み込みコンピュータ60と、医療画像などの医療情報を表示するための表示モニタ62とを備えるシステム50を示す。
一実施形態では、システム50は、図5に示すように、手術室64内の医療処置中に使用される。一実施形態では、医療施術者は、手術台上の自身の作業空間を、患者の身体に対する医療処置が行われる第1の区画66と、迅速なアクセスのために様々な医療/手術ツールを配置するように意図されている、手術台の残りの部分に対応する第2の区画68との2つの部分に分割する。例えば、図4に示すように、手術台上の患者の下半身/脚領域は、電場センサ52を含むツールの配置に使用されている。電場センサ52のこのロケーションにより、外科医は、手術台からモニタ62に表示される医療画像を容易に制御することができる。この配置はまた、隣接する非無菌制御室72に位置する制御室ワークステーション70を使用するために医療施術者が手術室を出て、医療処置を続けるために手術室に戻って来る必要をなくすことを可能にする。
一実施形態では、電場センサ52は、電場センサを1つの手術から別の手術へと使用することができるように、使い捨て滅菌バッグなどの滅菌バッグまたは容器に挿入される。別の実施形態では、電場センサ52は、使い捨てにされ、手術中に一回使用された後に廃棄されてもよい。
図示した実施形態では、電場センサ52は、この場合は手術台である受信面上に位置決めされる。動力式ロボットアーム54は、処置室の天井に固定された第1の端部を有し、手術台は、動力式ロボットアーム54の下になるように処置室内に配置される。コントローラ60は、ロボットアーム54の第2の端部に固定されている。VFS56は、コントローラ60に隣接してロボットアーム54に固定される。追跡装置58は、VFS56に固定されている。
コントローラ60は、電場センサ52、ロボットアーム54、VFS56、および追跡装置58と通信している。一実施形態では、システム50は、手術室などの滅菌環境に配置され、コントローラ60は、滅菌室に隣接する非滅菌制御室に配置されたワークステーションとさらに通信する。ワークステーションは、当該ワークステーションに格納された医療情報を含むことができ、および/または、画像保管通信システム(PACS)サーバのような、医療情報が格納された少なくとも1つのサーバと通信することができる。
任意の適切な通信方法を使用することができることを理解されたい。例えば、システム50のいくつかの構成要素間で有線通信が行われてもよく、一方で、Wi-Fi、Bluetooth(登録商標)またはEthernet(登録商標)通信などの無線通信がシステム50の他の構成要素間で行われてもよい。
図示された実施形態では、電場センサ52は、短距離3D検知のためにその表面上に予め較正された電場エンベロープを生成するように適合された自己完結型矩形パッドである。図6に示すように、生成された電場の中でパッドの上に手などの物体が置かれると、生成される電場に歪みが生じ、生成される電場の一部が地面に分路される。電場センサ52は、個々に測定される静電容量値の変化を検出することによって、生成される電場中の物体によって誘発される外乱を独立して測定する電極のアレイを含む。電場センサ52は、電極によって測定される静電容量の変化を用いて、外乱を発生させた物体の2Dまたは3D位置を判定するようにさらに適合されている。例えば、電場センサ52は、図7に示されるように、センサのベース座標フレームの原点Oに対する指先Pの3D位置を計算するように適合されてもよい。電場センサ52は、判定されたジェスチャ、すなわち判定された位置をコントローラ60に実質的にリアルタイムで送信するようにさらに適合されている。
コントローラ60は、判定されたジェスチャを電場センサ52から受信し、実行すべき対応するコマンドを判定するように適合されている。コントローラ60は、所定のジェスチャのセットと、各所定のジェスチャに対するそれぞれのコマンドとを含むデータベースにアクセスする。受信されたジェスチャを、データベースに格納された所定のジェスチャのセットと比較することによって、コントローラ60は、実行されるべき所与の所定のコマンドを識別する。コントローラ60は、その後、受信したジェスチャに対応するコマンドを実行し、実行されたコマンドの結果もたらされる医療情報を表示モニタ62に表示する。
一実施形態では、実行されるべきコマンドは、ワークステーションまたはPACSサーバに格納された医療情報を必要とする。この場合、コントローラ60は、非滅菌制御室に位置するワークステーションと通信して医療情報を取得する。受信されると、コントローラ60は、ワークステーションを介してPACSサーバから受信した医療情報を表示するなどの、識別されたコマンドを実行する。この場合、実行されるべきコマンドは、アプリケーションプログラミングインターフェース(API)メッセージを含むことができる。
別の実施形態では、実行されるべきコマンドは、非滅菌制御室に配置されたワークステーションとの通信を一切必要としない。この場合、コントローラ60は、識別されたコマンドを単に実行するだけである。この場合、コマンドの例は、すでに表示されている医療画像を拡大すること、すでに表示されている医療画像を回転させることなどを含むことができる。一実施形態では、制御室に位置するワークステーションとの通信を一切必要としないコマンドは、通常、ワークステーション上で実行されるマウスコマンドまたはキーボードコマンドに対応することができる。このような実施形態では、コントローラは、画像を表示するためにその中に組み込まれたディスプレイを備えていてもよい。
上述したように、システム50は、手術台上などの表面上にメニュー画像を投影するように適合されたVFS56を備える。図示の実施形態では、メニュー画像は、電場センサがメニュー画像の実質的に中心にあるアイコンの間に位置決めするように、互いに離間した4つのアイコンを含む。各アイコンは、コントローラ60の相互作用または動作の異なるモードを表す。コントローラ60は、VFS56を制御するようにさらに適合される。例えば、コントローラ60は、医療施術者のために実際の動作モードを識別するために実際の動作モードに対応するアイコンの色を変更し、それによって医療施術者にフィードバックを提供することができる。動作モードの例は、医療施術者が画像をズームインまたはズームアウトすることができるズームモード、医療施術者が画像を動かすことができるモーションモード、医療施術者が一連の画像、画像スライスのシーケンスなどを通じてメニュー内をスクロールすることができるスクロールモード、医療施術者が表示画像の輝度および/またはコントラストを調整することができるウィンドウレベルモード、医療施術者が画像パンニングを行うことを可能にするパンモード、医療施術者が画像または画像セットを切り替えることができる画像変更モード、画像をそのデフォルト構成に変換し戻す画像リセットモードまたはコマンド、所与の順序において一連の画像またはビデオを通じた自動サイクルを開始するための自動再生コマンドまたはモード、コピー、貼り付け、切り取りなどの機能にアクセスすることができるファイル編集モード、少なくとも2つの画像の併合のような画像の操作を行うことができる画像操作モード、容易なナビゲーションのために医療データのセット内の所望の特徴の特定のセットに対応するマーカの配置を行うことができる特徴マーカ配置モードなどを含むことができる。
例えば、ウィンドウレベルモードにあるとき、x軸に沿った手の特定の位置が特定の輝度レベルに対応することができ、y軸に沿った位置がコントラストレベルに影響を及ぼす。画像変更モードにあるとき、医療施術者が3人の異なる患者についてMRIスキャン(各スキャンが一連の画像からなる)を有する場合、ダブルエアタップジェスチャを画像変更コマンドとして使用して3人の異なる患者のスキャンの間をサイクルすることができる。自動再生コマンドにおいて、医療施術者は、例えば、より迅速に、スキャンされている器官の解剖学的構造をより良好に理解するために、MRIスキャン中の画像セットをアニメーション化およびサイクルすることができる。
画像操作モードにあるとき、エアタップジェスチャを使用して、例えば重ね合わせるために、X線スキャンおよびCTスキャンから2つの画像を選択することができる。選択が完了すると、左スワイプによって、一方の画像を他方の画像の上に置くことができ、それによって、医療施術者は、両方の画像の詳細を同時に観察することができる。特徴マーカ配置モードにあるとき、特徴とは、画像内の特定の静脈の位置または一連の画像内の特定の画像の位置など、画像内の任意の識別文字を指すことができる。例えば、一連の画像をスクロールするとき、医療施術者は画像をマークしてエアタップによって繰り返し参照することができる。以後、医療施術者は、マークされた画像を、以前の画像については左スワイプによって、次の画像については右スワイプによって、それぞれアクセスすることができる。
システム50が複数の動作モードまたは相互作用モードを含む実施形態では、コントローラ60は、2つのタイプのジェスチャを識別するように適合することができる。第1のタイプのジェスチャは、所望の動作モードを起動するため、またはある動作モードから別の動作モードに移行するために使用することができる。2つの動作モードが存在する例では、1つのモードから他のモードに移行するために単一のジェスチャを使用することができる。例えば、単一のジェスチャを実行すると、第1のモードから第2のモードに移行することが可能になる。同じジェスチャを2回実行すると、第2のモードから第1のモードに戻ることができる。別の例では、第1のジェスチャを使用して第1のモードを起動することができ、一方で、第2の異なるジェスチャを使用して第2のモードを起動することができる。実行され得る第2のタイプのジェスチャは、所与の動作モードが起動されると、コマンドを起動する。第2のタイプのジェスチャは、第1の種類のジェスチャとは異なってもよい。異なる操作モードにおいて同じジェスチャが使用されてもよい。しかし、異なる動作モードにおいて同じジェスチャによって起動されるコマンドは、異なるコマンドをトリガする。例えば、所与のジェスチャは、ズームモードではズームインを可能にすることができ、同じ所与のジェスチャが、輝度モードでは表示画像の輝度を増加させることができる。代替的に、ジェスチャは、異なる操作モードで同一のジェスチャを使用できないように一意であってもよい。
上述のように、システム50は、コントローラ60と通信する位置追跡装置58をさらに備える。位置追跡システム58は、物体の存在を検出し、物体の位置を判定するように適合されている。位置追跡システムは、関節式ロボットアーム54の位置および構成を制御するように適合されたコントローラ60に物体の位置を送信するようにさらに適合される。一実施形態では、位置追跡システムによって追跡される物体は電場センサ52である。この場合、コントローラ60は、電場センサ52の位置が変更されたときに、VFS56によって投影されるアイコンが電場センサ52の周囲に位置したままであることを確実にするように適合される。この場合、コントローラ60は、受信した電場センサ52の位置を使用し、アイコンが、新たな位置に配置された電場センサの周りに位置決めされることを保証するためのVFS56の適切な位置を判定し、VFSを適切な位置に位置決めするためのロボットアーム54の構成を判定し、判定された構成に従ってロボットアーム54の構成を変更するように適合することができる。
一実施形態では、システム50は、医療施術者に音響フィードバックを提供するために、スピーカをさらに備える。この場合、VFS56は省略されてもよく、されなくてもよい。
一実施形態では、VFS56は、可能な動作モードを表すアイコンを表示するように適合されたディスプレイに置き換えられてもよい。この場合、電場センサ52は、ディスプレイ上に表示されたアイコンが電場センサ52の上または周囲に位置するように、ディスプレイに位置決めまたは固定されてもよい。コントローラ60はこのとき、ディスプレイを制御するように適合される。例えば、コントローラは、アイコンの色および/または形状など、実際の相互作用モードに対応するアイコンの外観を変更し、それによって医療施術者にフィードバックを提供することができる。さらなる実施形態では、その上にアイコンが印刷された受信面を使用して医療施術者を助けることができる。この場合、電場センサ52は受信面に固定されていてもよいし、単にその上に位置決めされていてもよい。アイコンは、電場センサ52の周囲に位置決めされるように受信面上に配置される。例えば、受信面は、実質的に剛性のプレート、手術台に置かれる布片などであってもよい。
さらなる実施形態では、VFS56は省略されてもよく、コントローラは、異なる動作モードを表すメニューアイコンを表示ユニット62に直接表示してもよい。
以下では、コマンドが実行されるようにするために使用することができる、いくつかの例示的なジェスチャが提示される。第1の例示的なジェスチャは、スワイプジェスチャに対応し得る。電場センサ52の一方の縁部から反対側の縁部まで指先または手を用いて掃引する動作を実行することを、所与のコマンドに関連付けることができる。一実施形態では、4つのスワイプジェスチャをコントローラ60によって認識することができ、各々を左から右へのスワイプ、右から左へのスワイプ、上から下へのスワイプ、および、下から上へのスワイプの、それぞれのコマンドに関連付けることができる。例えば、上から下へのスワイプを、第1の相互作用モードから第2の相互作用モードに移行することに関連付けることができ、一方、下から上へのスワイプを、第2の動作モードから第1の動作モードに戻ることに関連付けることができる。同じまたは別の例において、左から右へのスワイプを、第1の医療画像から第2の医療画像への移動に関連付けることができ、右から左へのスワイプを、第2の医療画像から第1の医療画像に戻る移動に関連付けることができる。
第2の例示的なジェスチャは、図8に示されるようなエアホイールジェスチャに対応する。医療施術者は、指先または手を用いて、電場センサ52の表面に実質的に平行な平面内で円運動を行う。この円運動は、その運動方向、すなわち時計回りまたは反時計回りに従って増加または減少するカウンタを提供する。例えば、医療施術者は、表示される画像を選択するためにドロップダウンメニューをスクロールするためにエアホイールジェスチャを使用することができる。
第3の例示的なジェスチャは、エアタップジェスチャに対応することができる。医療施術者が指先を電場センサ52に向けて降下させ、その後迅速に上げ戻すことによって、エアタップジェスチャが実行される。医療施術者は、エアタップジェスチャを実行している間に、電場センサ52に接触してもしなくてもよい。エアタップジェスチャは、例えば、マウスの左クリックコマンドに関連付けることができる。
別の例示的なジェスチャは、ダブルエアタップに対応し得る。医療施術者に2回のエアタップを短時間で連続的に実行させることにより、ダブルエアタップが実行される。例えば、ダブルエアタップは、マウスのダブル左クリックと関連付けられるものと同じコマンドに関連付けることができる。エアタップは、電場センサ52の無接触使用を参照するが、ジェスチャは、電場センサ52の表面に触れることを含んでもよいことを理解されたい。例えば、電場センサ52の表面に触れることは、マウスクリックに対応することができる。
図示された実施形態では、ロボットアーム54に固定されているが、コントローラ60は、少なくとも電場センサ52と通信したままである限り、任意の他の適切なロケーションに位置決めすることができることを理解されたい。同様に、電場センサ52は、手術室内の任意の適切なロケーションに位置決めすることができる。
図9aは、VFS56などのプロジェクタによって表示され得る1つの例示的なメニュー画像80を示す。メニュー画像80は、4つのアイコン82~88を備え、各アイコン82~88は、それぞれの相互作用モードに対応する。メニュー画像80は、実質的に電場センサ90の中心に置かれ、それによって、アイコン82~88が電場センサ90の周りに位置決めされる。その結果、アイコン82は電場センサ90の上に配置され、アイコン84は電場センサ90の右に配置され、アイコン86は電場センサ90の下に配置され、アイコン88は電場センサ90の左に配置される。
一実施形態では、所望の相互作用モードに対応するアイコン82~88の方向にスワイプジェスチャを実行することによって、所与の相互作用モードが起動される。例えば、医療施術者は、表示された医療画像にズームインすることを所望する場合があり、アイコン88は、医療施術者が表示された医療画像にズームインすることを可能にする相互作用モードに関連付けられ得る。この場合、アイコン88はズームアイコンとして参照される。図9bおよび図9cは、所望の相互作用モードに対応するアイコンの方向にスワイプを実行することによってズームモードを起動する方法を示す。図示の例では、医療施術者は、ズームアイコン88によって表されるズーム動作モードを起動するためにスワイプジェスチャを実行する。図9bでは、医療施術者は、電場センサ90の上で電場センサ90の右端に隣接して手を位置決めし、手を左に、すなわち所望の相互作用モードに対応するズームアイコン88に向かって移動させることによって左スワイプジェスチャを実行する。左スワイプジェスチャは電場センサ90によって検出され、判定されたジェスチャを示す信号が電場センサ90によってコントローラ60のようなコントローラに送信される。次に、コントローラは、左スワイプジェスチャに対応する相互作用の動作モードを判定し、対応する相互作用モードを起動する。
別の例では、医療施術者は、上スワイプジェスチャ、すなわちアイコン82に向かって下から上にスワイプジェスチャを実行することによって、パン相互作用モードを起動することができる。パン相互作用モードになると、電場センサ90の上の2D平面内で医療施術者の手の位置を変更することによって、画像パンが行われる。
一実施形態では、所与の相互作用モードの起動時に、コントローラは、上で説明したように、起動された相互作用モードに対応するアイコンの外観を変更することによってメニュー画像を変更することができる。
同じまたは別の実施形態では、コントローラは、表示アイコンを追加および/または削除することによって、表示されるメニュー画像を変更することができる。例えば、図9aに示すように、コントローラは、医療施術者の左スワイプジェスチャに続くズーム相互作用モードの起動時に、投影メニュー画像80に2つのアイコン92および94を追加することができる。図示の実施形態では、アイコン92および94は、電場センサ90上に投影されるようにメニュー画像80内に位置決めされる。アイコン92および94は、医療施術者を、ズーム相互作用モードの間にコントローラと相互作用するように誘導するように設計されている。アイコン92は、「+」記号が挿入されている時計回り方向の矢印を表し、これは、時計回りのエアホイールジェスチャを実行して、表示画像内でズームインを行うことができることを医療施術者に示す。アイコン94は、「-」記号が挿入されている反時計回り方向の矢印を表し、これは、反時計回りのエアホイールジェスチャを実行して、表示画像内でズームアウトを行うことができることを医療施術者に示す。エアホイールを行うために、医療施術者は、図9cに示すように、指先を電場センサ90の方に向け、指先を動かして円形または半円形の動きを実行する。
医療施術者が所望の動作を実行すると、医療施術者は、電場センサ90から手を離し、所定の期間の後に、図9dに示すように、電場センサ90を停止させる。停止されると、電場センサ90は、再起動するまで、センサが検出し得る物体の一切の動きを無視する。例えば、電場センサ90は、手のような物体を所定の期間にわたって、実質的に一定の位置にその表面の上に保持することによって再起動することができる。電場センサ90を起動または停止させるために、任意の適切なジェスチャを使用することができることを理解されたい。
電場センサの上および周囲にメニュー画像を投影するために、ロボットアームを使用して電場センサの位置に対してプロジェクタの位置を制御する実施形態では、ロボットアームは、電場センサの位置が変化するときに、投影されたメニュー画像を電場センサ上に維持することを可能にする。メニュー画像が実質的に常に電場センサ上に投影されることを保証することに加えて、これは、医療施術者の視界が妨げられることなく、プロジェクタが電場センサの上に実質的に常に位置することをさらに保証し、医療施術者は、表示画像を常に見ることが可能になる。
ロボットアームが存在する実施形態では、電場センサは、図10aに示すようにロボットアームに取り付けられてもよい。この場合、電場センサに隣接して位置決めされたディスプレイは、電場センサの周囲にメニューアイコンを表示するために、電場センサを取り囲むことができる。代替的に、メニューアイコンを表示するために、電場センサに隣接してディスプレイを位置決めしてもよい。そのような実施形態では、医療施術者の手の位置などの医療施術者の位置を追跡するために、装置58などの位置追跡装置が存在してもよく、コントローラは、図10bに示すように、電場センサを医療施術者または医療施術者の手から所与の距離に位置決めするために、ロボットアームの構成を制御するように適合することができる。この場合、電場センサは、常に医療施術者にとって容易にアクセス可能であり得る。
上記の説明は動力式ロボットアームを参照しているが、プロジェクタ、電場センサ、位置追跡装置などを支持するために別のアームまたは構造を利用できることを理解されたい。例えば、手術室の天井に固定された受動的な関節アームを使用することができる。この場合、アームの構成は、医療施術者によって手動で変更されてもよい。この構造はさらに、プロジェクタ、電場センサ、位置追跡装置などを位置決めすることができる回転床テーブルであってもよい。
コマンドがエアホイールジェスチャに関連付けられる実施形態では、エアホイールジェスチャの間に実行される円または半円の直径が、エアホイールジェスチャに関連付けられるコマンドに影響を及ぼし得る。例えば、第1の直径を有するエアホイールジェスチャは、第1の動作が実行されることと関連付けられ得、第2の異なる直径を有する同じエアホイールジェスチャが、第2の異なる動作が実行されることと関連付けられ得る。別の実施形態では、異なる直径のエアホイールジェスチャを実行することにより、実行される同じ動作がトリガされ得るが、その動作の特性は、エアホイールジェスチャの直径に依存する。例えば、ズーム動作またはスクロール動作がエアホイールジェスチャに関連付けられる場合、エアホイールジェスチャの直径が、動作の感度または速度を変化させることができる。例えば、エアホイールジェスチャの間に指が完全に回転する結果として10枚の画像がスクロールされる場合、エアホイールジェスチャの直径を大きくすることで、指が完全に回転する結果として20枚の画像がスクロールされる。このような特徴は、実行される動作において、システムに追加の精度および分解能を提供する。
一実施形態では、電場センサは、医療施術者による物体保持または施術者の手の間の距離を判定するように適合され、判定された距離は、識別されたジェスチャと共にコントローラに送信される。この場合、判定された距離が、実行される動作に影響を及ぼすことができる。一実施形態では、電場センサからの第1の距離で実行される所与のジェスチャは、ズームなどの実行されるべき第1の動作に関連付けられてもよく、一方で、電場からの第2の異なる距離で実行される同じジェスチャが、パンなど、実行される異なる動作に関連付けられてもよい。別の実施形態では、電場センサから異なる距離において所与のジェスチャを実行することは、同じ実行されるべき動作に関連付けられ得るが、動作の特性は、図11に示すように、医療施術者の手と電場センサとの間の距離に応じて変化し得る。一実施形態では、電場センサは、ジェスチャを実行している間に、その上面と施術者の手または施術者によって保持される物体との間の距離を判定し、判定された距離を使用して、実行されるジェスチャに対応する動作の速度を変化させることができる。例えば、医療施術者の手が電場センサから近いほど、対応する動作の速度を遅くすることができる。例えば、医療施術者がズーム相互作用モードを選択した場合、医療施術者は、表示画像をズームインまたはズームアウトするために、電場センサの表面に実質的に平行な平面内でエアホイールジェスチャを実行することができる。エアホイールジェスチャが電場センサの表面の近くで行われる場合、ズームの速度は、電場センサの表面から離れて行われるエアホイールジェスチャに起因するズームの速度よりも遅くなり得る。パンなどの実行されるべき他の動作には、同じまたは逆のことが適用され得る。
一実施形態では、電場センサは、実質的に同時に実行される少なくとも2つの異なるジェスチャを検出するように適合されてもよい。例えば、電場センサは、結合されたジェスチャを検出するために医療施術者による物体保持または施術者の手の同時の平行移動および回転を検出するように適合されてもよい。例えば、電場センサの表面に平行な回転軸に従って手を回転させると、表示画像の回転がトリガされ得、一方、電場の表面に実質的に平行な平面内で手を平行移動またはスワイプすると、表示画像が平行移動され得る。手が同時に平行移動および回転されると、表示画像も同時に回転および平行移動される。
一実施形態では、平行移動ジェスチャは、表示画像を回転させるためのコマンドとして解釈され得る。図12に示すように、電場センサの所与の軸に沿って手を平行移動させることは、所与の軸を中心とした表示される3D画像の回転に変換することができる。例えば、手をx方向に5cm、およびy方向に10cm平行移動させることは、コントローラによって、3D画像をそれぞれIx軸を中心として10度回転させること、および3D画像をIy軸を中心として20度回転させることと解釈される。
一実施形態では、直感的な慣性が3Dジェスチャに加えられてもよい。例えば、あまりにも多大な物理的な努力なしに大規模な一連の画像をスクロールまたはズームイン/アウトするために、エアホイールジェスチャ制御に慣性効果を加えることができる。一実施形態では、3つの別個のモード、すなわち、1)低速モード、2)高速モード、3)慣性モードが存在し得る。
低速モードは、エアホイールジェスチャの速度が所与の閾値を下回ると起動する。このモードでは、施術者からの未処理のエアホイール入力が直接、画像セットの正確な1対1の制御のためにスクロールまたはズームコマンドに変換される。エアホイールが所定の閾値を上回る速度で実行されると、高速モードが起動される。低速スクロールは、施術者が画像セットをフレームごとにナビゲートすることを可能にする。
高速モードでは、医療施術者が所与の閾値よりも速い速度でエアホイールジェスチャを実行する限り、複数の画像セットのスクロールまたは高速ズームが行われる。しかしながら、医療施術者がエアホイールジェスチャを停止すると、低速スクロールモードとは異なり、スクロールまたはズーム動作は停止しない。代わりに、慣性モードが起動される。
慣性モードが起動される前に、医療施術者がエアホイールジェスチャを実行した最新の速度が記録される。記録された速度は、その後、自動エアホイールが慣性スクロールのために受け取る「キック」すなわち初期速度を計算するための入力として使用される。慣性モードが起動されると、ユーザからの入力が受け取られない場合でもシステムはズーム/スクロールを継続するようにされる。円滑にするため慣性モードにおいて弾性ゴムバンド効果がエミュレートされ、この効果において、自動エアホイールは、最初は速く、所定の期間にわたって緩やかに減速して停止に至る。
一実施形態では、上述のように、システムは、電場センサを操作する医療施術者に音響フィードバックを提供するためにコントローラによって制御されるスピーカを備えることができる。音響フィードバックは、医療施術者に、様々なメニューをナビゲートするための容易な参照を提供することができる。特定のジェスチャがコントローラによって首尾よく認識されると、一意のそれぞれの音響キュー(例えば、ビープ音または一連のビープ音)が、システム状態のこの変更を施術者に知らせる。これにより、医療施術者は、表示モニタから一度も目を離す必要なく、電場センサを使用することができる。
一実施形態では、システムは、コントローラに接続されたマイクロフォンを備え、医療施術者は、電場センサによって検出されるジェスチャを介して生成されるコマンドに加えて、マイクロフォンを介して音声コマンドを入力することができる。例えば、医療施術者は、「スクロール」と言って、スクロールモードを起動し、その後、エアホイールジェスチャを使用して画像をスクロールなどすることができる。
図13は、医療施術者が医療画像などの医療データと相互作用することを可能にする方法150の一実施形態を示す。方法150は、システム10,50を使用して実施されることを理解されたい。
ステップ152において、コントローラは待機状態にあり、電場センサによるジェスチャの検出を待つ。ステップ154において、コントローラは、ジェスチャが電場ジェスチャによって検出されたか否かを判定する。ジェスチャが検出された場合、コントローラは、ステップ156において較正が必要か否かを判定する。一実施形態では、電場センサは、電極から高周波数信号および低周波数信号の両方を受信する。高周波信号は通常、システム内の電気ノイズに対応する。ノイズ対低周波信号比が所定の閾値よりも大きい場合、較正が必要であると判定される。ジェスチャが検出されない場合、ステップ158において、ジェスチャが検出されなかった期間の持続時間が持続時間閾値と比較される。ジェスチャが検出されなかった持続時間が持続時間閾値以下である場合、方法はステップ152に戻る。ジェスチャが検出されなかった持続時間が持続時間閾値より大きい場合、ステップ156が実行される。
コントローラが較正を必要としないと判定した場合、コントローラは電場センサ上にメニュー画像を投影し、ステップ160においてリモートワークステーション上でマウスエミュレーションを開始する、すなわちコントローラは対応するジェスチャの検出時にマウスコマンドに対応するコマンドを送信し始める。較正が必要とコントローラが判定した場合、現在のノイズ対信号比の正規化を使用して較正が実行される。
ステップ164において、電場センサの位置が、位置追跡装置を用いて追跡される。任意選択的に、投影面がまた、位置追跡装置、またはIR深度カメラ、ステレオカメラシステムなどの他の適切な装置によってスキャンされてもよい。投影画像のスキャンは、投影面の、投影軸に直交していない部分などの、投影面上の任意の不規則性を判定することを可能にする。
ステップ166において、コントローラは、プロジェクタを電場センサの上方に位置決めするためにロボットアームを操作する。ステップ168において、コントローラは、パースペクティブコレクションのために表示されるべき画像を予め歪ませる。画像を予め歪ませることによって、投影面が不規則性を呈する場合であっても投影画像が正常に見えるように、プロジェクタによって投影される画像を修正することが可能である。
ステップ170において、電場センサによってジェスチャが検出されたと判定した場合、コントローラは、電場センサ上にメニュー画像を投影するようにプロジェクタに命令する。ステップ172において、コントローラは、検出されたジェスチャを実行することによって医療施術者によって選択された相互作用モードに対応するメニューアイコンを強調表示するようにプロジェクタに命令する。ステップ174において、コントローラは、表示される医療画像の所与の操作など、検出されたジェスチャに関連付けられるコマンドを実行する。次に、方法はステップ154に戻る。
一実施形態では、ズームモード、パンモードなどのような所与の動作モードを選択するために、いくつかのジェスチャの第1のセットが使用される。所与の動作モードが選択されると、第2のセットのアイコンジェスチャを使用して医療情報と相互作用することができる。一実施形態では、ジェスチャの第1のセットおよび第2のセットは、第1のセットに存在するジェスチャが第2のセットに含まれないように、異なる。別の実施形態では、同じジェスチャが、ジェスチャの第1のセットおよび第2のセットの両方に含まれてもよい。この場合、所与の動作モードを起動するために所与のジェスチャを使用し、所与の動作モードが起動されると、同じジェスチャを使用して、例えばズームインなどの異なる動作を実行することができる。
一実施形態では、プロジェクタは、システムの所与の動作モードに各々対応する第1のセットのメニューアイコンを表示するように適合されてもよい。所与の動作モードが対応するジェスチャを使用して起動されると、プロジェクタは、選択された動作モード内での医療データとのそれぞれの相互作用に各々対応する第2のセットのメニューアイコンを投影するように適合され得る。一実施形態では、所与の動作モードが起動されると、第1のアイコンセットはもはや投影されず、第2のアイコンセットのみが投影される。別の実施形態では、所与の動作モードが起動されると、アイコンの両方のセットが同時に表示される。
以下は、手のひらを下にした水平の手の動きおよび一本指の動きに基づくジェスチャのための例示的な語彙を提供する。
人指し指(Fist/Finger):マウスカーソルを画面上で移動させる。
シングルエアタップ:領域およびシステム状態を反応させる。
ダブルエアタップ:画像をリセットする。
左スワイプ:ズームモードを起動する。
右スワイプ:スクロールモードを起動する。
上スワイプ:パンモードを起動する。1本の指でカーソルを所望のロケーションに移動することによってパンする。
ダウンスワイプ:ウィンドウレベルモードを起動する。表示面が、例えば、各々が予め設定されたウィンドウレベルを表す4つの象限に分割される。特定の象限の上にホバリングすると、所望の画像輝度およびコントラストが選択される。
上記提示された例示的なジェスチャの組み合わせおよび/またはこれらの例示的なジェスチャの変形を使用することができることを理解されたい。
一実施形態では、医療データと相互作用する上述のシステムおよび方法は、外科手術/介入環境の実際の要件および制約に特に注意しながら、無菌環境における医療画像との直感的かつ人間工学的な無接触の相互作用を可能にする。
一実施形態では、電場検知を使用することは、必要な処理能力を大幅に少なくし、その周囲の照明条件とは無関係に動作する。これらの機能により、障害およびエラーのリスクがほとんどなく、対象物を確実に追跡することができる。そのように施術者の手をリアルタイムで確実に追跡することはまた、例えば以下のようないくつかの新規な人間工学的ジェスチャの検出および実施をも可能にする。
一実施形態では、本システムは、医療施術者が、システムが使用される照明条件とは独立して医療情報と相互作用することを可能にする。電場センサの動作は照明条件に依存しないため、例えば暗闇でも医療情報と相互作用することができる。
一実施形態では、本システムおよび方法は、初心者ユーザが迅速にシステムをピックアップして快適性を得ることを容易にする。自然で覚えやすいジェスチャは、新規のユーザの学習曲線を非常に小さくすることを保証する。本システムを使用して数分以内に、医療施術者は、医療画像が表示されるモニタによって見通し線を中断することなく使用するのに十分な快適性を得ることができる。
一実施形態では、電場センサは、非接触式に、または無接触式に使用される。これは、電場センサの表面上に存在し得る任意の汚染物質を転移させる一切の危険性を低減することを可能にする。
一実施形態では、電場センサは、視野が物体によって遮られている場合であっても動作することができる。例えば、電場センサは、手術用ドレープによって覆われていても動作可能である。
上記の説明では、医療施術者によって実行されるジェスチャを検出し、そのジェスチャに従って医療情報のみを表示するために電場センサが使用されているが、以下は、医療施術者に、センサとの相互作用に関する視覚フィードバックをさらに提供するためのシステムを提示する。
図14は、医療画像などの医療データと相互作用し、医療施術者などのユーザに、システム200との相互作用に関する視覚フィードバックを提供するシステム200の一実施形態を示す。システム200は、少なくとも検知ユニット202と、コントローラ204と、表示ユニット206とを備える。検知ユニット202は、システム200を使用する医療施術者によって実行されるジェスチャを検出するように適合されている。上述のように、医療施術者は、手または物体のうちの1つを使用して、検知ユニット202と相互作用することができる。検知ユニット202は、手または医療施術者によって使用される物体の位置および向きを検出するようにさらに適合される。
コントローラ204は、上述したように、検知ユニット202によって検出されるジェスチャに従ってコマンドを実行し、医療情報を表示ユニット206に表示するように適合されている。コントローラ204は、グラフィカルユーザインターフェース(GUI)を生成し、生成されたGUIを、医療データが表示される同じ画面上などの表示ユニット206上に表示するようにさらに適合される。GUIは、医療施術者に、検知ユニット202との相互作用に関する視覚フィードバックを提供する。
一実施形態では、GUIは、各々がそれぞれのジェスチャの検出時に実行されるべきそれぞれのコマンドに対応する少なくとも1つのアイコンを含む。GUIは、医療施術者が検知ユニット202と相互作用するために使用する手または物体を表すためのグラフィックまたは仮想オブジェクトをさらに含む。例えば、グラフィックオブジェクトは矢印に対応することができる。GUI内のアイコンに対するグラフィックオブジェクトの位置は、医療施術者が使用する手または物体の位置に応じて選択される。一実施形態において、GUI内のアイコンに対するグラフィックオブジェクトの位置は、医療施術者が使用する手または物体の3D位置に応じて選択される。一実施形態において、GUI内のアイコンに対するグラフィックオブジェクトの位置は、検知ユニット202に対する、医療施術者が使用する手または物体の位置に応じて選択される。
手または物体の位置を判定することは、手または物体の単一の点の位置を判定することに対応し得ることを理解されたい。例えば、手の位置は、指先の位置を知ることによって判定することができる。別の例では、ペンを保持している手の反対側のペンの端部の位置を知ることで、ペンの位置を判定することができる。
GUI内のアイコンに対するグラフィックオブジェクトの向きもまた、検知ユニット202に対する、医療施術者が使用する手または物体の向きに応じて選択される。
一実施形態では、外科医が繊細な手術の作業に忙しいとき、医療画像との相互作用は、この繊細な外科手術の流れを妨げてはならない。したがって、外科医は、検知ユニット202に対する手の位置を見続けることができず、手と、医療データが表示される表示ユニット206との間を行き来することができない。GUIが、外科医に、手と検知ユニットとの間の相対位置および手の向きの視覚的フィードバックを提供するとき、外科医の注視はディスプレイ上に残り、外科医は、システム200と相互作用するために、手または検知ユニット202を見る必要がない。
一実施形態では、医療施術者によって使用される物体の位置および向きは、グラフィックオブジェクトの位置および向きがGUI内で実質的にリアルタイムで更新されるように実質的に連続的に監視される。
一実施形態では、GUIは、以下、グラフィック検知ユニットと呼ばれる検知ユニット202のグラフィックまたは仮想表現をさらに備える。この場合、アイコンはGUI内のグラフィック検知ユニットに対するそれぞれのロケーションに各々位置決めされる。例えば、アイコンは、グラフィック検知ユニットの上またはグラフィック検知ユニットの周りに位置決めすることができる。図15は、各々がそれぞれの動作モードに対応する4つのアイコン232,234,236および238と、グラフィック検知ユニット240と、医療施術者の手を提示するための仮想手242とを備える例示的なGUI230を示す。アイコン232~238の位置およびグラフィック検知ユニットの位置はGUI230内で固定され、一方で、仮想手242の位置および向きは、GUI内で手の位置および医療施術者の手の向きに応じて調整される。これにより、医療施術者は、手または検知ユニット202を見る必要なしに、医療データが表示される表示ユニット206だけを見ながら、検知ユニット202に対する手の位置を知ることができる。
一実施形態では、コントローラ204は、物体認識を使用して、医療施術者が検知ユニット202と相互作用するために使用する物体を判定する。この場合、医療施術者によって使用される物体を表すグラフィックオブジェクトは、この物体のグラフィック表現であってもよい。例えば、医療施術者が指のうちの1つを使用して検知ユニット202と相互作用する場合、コントローラ204は、医療施術者の手を表すために指が突き出た、閉じた拳のグラフィック表現を生成することができる。医療施術者が検知ユニット202と相互作用するためにペンを使用する場合、コントローラ204は、ペンのグラフィック表現を生成し、このグラフィック表現をGUI内に表示することができる。一実施形態では、システム200は、所定の仮想オブジェクトを含むデータベースを備え、コントローラ204は、実行された物体認識に従って所定の仮想オブジェクトの所与の1つを選択するように適合される。コントローラ204は、現実の物体の形状に一致する形状の仮想オブジェクトであってもよい。
一実施形態では、GUIは、同じ表示ユニット上の医療データに隣接して表示される。この場合、表示ユニット206の画面は、2つの区画、すなわち、医療画像などの医療データを表示するための第1の区画と、GUIを表示するための第2の区画とに分割することができる。別の実施形態では、GUIは、図16に示すように、表示されている医療データ上に表示されるオーバーレイGUIに対応する。
一実施形態では、検知ユニット202は、医療施術者によって実行されるジェスチャと、医療データと相互作用するために医療施術者によって使用される物体の空間における位置および方向の両方を判定する単一のセンサを備える。例えば、単一のセンサは、カメラなどの光学センサであってもよい。別の実施形態では、単一のセンサは、ジェスチャ認識ならびに手または物体の位置および向きの判定のための着用可能な慣性測定ユニット(IMU)と組み合わされた超音波センサアレイを含むことができる。この場合、医療施術者によって実行されるジェスチャは、カメラによって取得される画像のような、センサによって取得されるデータを使用してコントローラ206によって判定される。コントローラ204は、その後、ジェスチャに対応するコマンドを判定し、それらのコマンドに従って医療データを表示ユニット206に表示する。コントローラ204は、表示ユニット206上に表示されたGUI内でシステム200と相互作用するために使用される物体の仮想表現を表示するようにさらに適合される。この実施形態では、3Dカメラ、少なくとも2つのカメラを含むステレオカメラシステム、飛行時間型カメラなどのようなカメラを使用することができる。環境からの光を受け、検出された光を2Dまたは3D情報に解釈してジェスチャならびに物体の手の位置および向きの検出を可能にするように適合された任意の適切な光学センサを使用できることを理解されたい。
一実施形態では、上述のように、アイコンは、カメラによって撮像された基準面上に表示される。例えば、プロジェクタは、上述したように基準面上にアイコンを表示することができる。別の実施形態では、基準面は、アイコンが表示される画面を含むことができる。表示されるアイコンは各々、GUIに含まれるそれぞれのアイコンに対応する。一実施形態では、GUIに含まれるアイコン間の相対位置は、基準面上に表示されるアイコン間の相対位置に対応する。
別の実施形態では、検知ユニット202は、医療施術者によって実行されるジェスチャ、ならびに医療施術者によって使用される手または物体の位置および向きを判定するために2つの異なるセンサ間の融合を使用する。第1のセンサは、医療施術者によって使用される手または物体の位置を検出するために使用され、一方で、第2のセンサは、手または物体の向きの検出に使用される。例えば、検知ユニット202は、位置を検出するための電場センサを備えてもよく、カメラなどの光学センサが、その向きを判定するために手または物体を撮像するために使用される。光センサによって取得された画像から手または物体の向きを判定するための任意の適切な方法を使用することができることを理解されたい。2Dカメラ、モノクロカメラ、ステレオカメラ、飛行時間型カメラなどのようなカメラを用いてもよい。ジェスチャは、第1のセンサおよび/または第2のセンサによって検出することができる。一例では、医療施術者が検知ユニット202と相互作用するために使用する手または物体の位置は、指先または医療施術者が保持する物体の端部の位置を測定する電場センサによって取得されるデータから判定され、一方で、物体の向きは、カメラによって取得される画像を用いて判定される。ジェスチャは、電場センサおよび/またはカメラを使用して判定することができる。例えば、図17に示すジェスチャなどの静的ジェスチャは、カメラによって取得される画像を使用して判定することができ、一方で、少なくともいくつかの動的ジェスチャは、電場センサによって取得されるデータを使用して判定することができる。少なくともいくつかの動的ジェスチャはまた、カメラによって取得される画像を使用して判定されてもよいことを理解されたい。
図18は、適切なカメラによって検出され得る動的ジェスチャの一実施形態を示す。図示した動的ジェスチャは、指タッピングに対応する。指タッピングを実行するために、医療施術者は人差し指を伸ばし、先端を上下に動かしてボタンに対するタップをシミュレートする。医療施術者はまた、ボタンのように「感じる」ように、親指を伸ばして親指で人差し指をタップしてもよい。このような動的ジェスチャは、コントローラ204によって、マウスクリックコマンドとして解釈することができる。
カメラが電場センサに関連して使用される場合、カメラは、電場センサまたは、基準物体、例えば、医療施術者の手または医療施術者が使用する物体が存在する、電場センサの上の領域を撮像するように位置決めされることを理解されたい。
一実施形態では、表示ユニット206に表示されるGUIのサイズおよび/または位置は調整可能である。例えば、適切なジェスチャを使用して、医療施術者は、GUIを画面内の別のロケーションに移動させ、GUIのサイズを増減させ、および/またはGUIの表示を抑制するコマンドを入力することができる。
上記の説明は、医療情報/データとGUIの両方が表示される単一の画面を含む表示ユニットを参照しているが、当業者であれば、表示ユニットは2つ以上の画面を含んでもよいことを理解するであろう。例えば、表示ユニットは、医療画像などの医療情報が表示される第1の画面と、GUIが表示される第2の別の画面とを含むことができる。この場合、2つの画面間の相対位置および画面の寸法は、医療施術者が表示ユニットの第1の画面に表示された医療情報を見ている間に、第2の画面に表示されたGUIが医療施術者の視野に入るように選択される。これは、医療施術者が第1の画面を見ている間に第2の画面が医療施術者の視野内にあるように、第2の画面を第1の画面に隣接して位置決めすることによって第2の画面を有することによって達成され得る。例えば、第2の画面は、第1の画面と物理的に接触し、第1の画面の下に位置決めされてもよい。第2の画面は、第1の画面よりも小さくなるように選択することができる。
第1の画面および第2の画面は、単一の表示装置の一部であってもよいことを理解されたい。代替的に、第1の画面および第2の画面は各々、表示ユニットが2つの別個の表示装置を備えるように、それぞれの表示装置の一部であってもよい。
図19は、同じ画面上にGUIおよび医療画像を表示するように適合された例示的なシステム300を示す。システム300は、電場センサ302と、カメラ304と、アイコンを投影するためのプロジェクタ306と、コントローラ310と、コンピュータマシン312と、単一の表示装置314とを備える。コントローラ310は、電場センサ302、カメラ304、プロジェクタ306およびコンピュータマシン312と通信している。
コントローラ310は、カメラ304から取得した画像を受信し、受信した画像から少なくとも医療施術者の手の向きを判定するように適合されている。コントローラ310は、電場センサ302から医療施術者の指先の時間的位置を受信し、指先の受信位置から医療施術者によって実行されるジェスチャを判定するようにさらに適合されている。コントローラ310は、実質的にリアルタイムでGUIを生成するようにさらに適合される。GUIは、4つの仮想アイコンと、医療施術者の手の仮想表現とを含む。GUI内での手の仮想表現の位置は、電場センサ302から受信された指先の位置を使用して判定される。GUI内の手の仮想表現の向きは、カメラ304から受信される画像から得られる手の判定される方向に従って判定される。
GUIを作成した後、コントローラ310は、表示装置314上に医療情報を表示することを担当するコンピュータマシン312にGUIを送信する。コントローラ310はまた、検出されたジェスチャに対応するコマンドを取り出し、コマンドを実行するコンピュータマシンに任意の検出されたジェスチャを送信することも理解されたい。代替的に、コントローラ310は、検出されたジェスチャに対応するコマンドを判定し、次いで、コマンドを実行するコンピュータマシンにコマンドを送信するように適合されてもよい。
図示の実施形態では、コンピュータマシン312は、医療画像316とオーバーレイGUI318の両方を同じ表示装置314に表示するように適合されている。図示された例では、オーバーレイGUI318は、表示装置314の画面の右下隅で、医療画像316上に表示される。当業者は、他の構成も可能であることを理解するであろう。
医療画像およびGUIを同じ表示装置に表示する結果として、医療施術者が表示装置314の画面を見てその上に表示される医療情報を確認している間に、GUIは医療施術者の視野320内に常に存在する。
一実施形態では、GUIはリアルタイムで更新され、それによって、仮想手の位置および向きは実質的に常に実際の手の位置および向きに対応する。
システム300は、単一の表示装置314を備えるが、図20は、2つの別個の表示装置を備えるシステム330の実施形態を示す。システム330は、システム300に含まれるものと同じカメラ304、プロジェクタ306、電場センサ302およびコントローラ310を備える。システム330は、コンピュータマシン332、第1のまたは主表示装置334、および第2のまたは補助表示装置336をさらに備える。
コンピュータマシン332は、医療画像316を第1の表示装置334の画面上に表示し、GUI318を第2の表示装置336の画面上に表示するように適合されている。第1の表示装置334に対する第2の表示装置336の位置は、医療施術者が医療画像316を見ている間に、GUI318が医療施術者の視野320に含まれるように選択される。これは、第2のディスプレイ336の画面のサイズを適切に選択し、第2の表示装置336を第1の表示装置334に隣接して位置決めすることによって達成することができる。例えば、第2の表示装置336は、第1の表示装置334と物理的に接触していてもよい。図20に示す第1の表示装置334と第2の表示装置336との間の相対的な位置は単なる例示であることを理解されたい。
医療情報/データおよびGUIを表示するために、任意の適切なタイプの表示装置を使用することができることを理解されたい。例えば、発光ダイオードディスプレイ、液晶ディスプレイなどを使用することができる。
上記の説明では、GUIは、少なくとも、医療施術者が検知ユニット202と相互作用するために使用する物体の仮想表現および少なくとも1つの仮想アイコンを含むが、他の構成も可能であり得ることを理解されたい。例えば、GUIは、検知ユニット202の仮想表現、または、検知ユニット202がカメラと電場センサの両方を備える場合は電場センサの仮想表現のような、検知ユニット202の要素の仮想表現をさらに含むことができる。別の例では、GUIは、医療施術者が検知ユニット202と相互作用するために使用する物体の仮想表現、および、検知ユニット202の仮想表現、または、検知ユニット202がカメラと電場センサの両方を備える場合には電場センサの仮想表現のような、検知ユニットの構成要素の仮想表現のみを含んでもよい。この場合、GUIは仮想アイコンを含まず、検知ユニットの仮想表現に対する物体の仮想表現の位置は、検知ユニット202によって判定される物体の位置に従って判定される。
上記の説明では、検知ユニット202は、医療施術者が検知ユニット202と相互作用するために使用する物体の位置と向きの両方を検出するように適合されているが、検知ユニット202は、物体の位置のみを検出するように適合されてもよいことを理解されたい。この場合、GUI内の物体の仮想表現の位置は、検知ユニット202によって判定される検知ユニット202に対する物体の位置を使用して判定され、物体の向きはGUIでは表されない。
GUIは、検知ユニットが物体の位置のみを検出するように構成されている場合、物体およびアイコンおよび/または検知ユニットの2D表現に対応することができることを理解されたい。検知ユニットが、検知ユニットに対する物体の位置と向きの両方を判定するように適合される場合、GUIは、物体の3D仮想表現を含むことができる。
上記の説明および図では、検知ユニットがベッド上に位置決めされて表現されているが、検知ユニットのこの特定の位置は例示的なものに過ぎず、検知ユニットは、例えばベッドに隣接するテーブル上のような任意の適切な位置に位置決めされてもよいことは理解されたい。一実施形態では、検知ユニットは、医療施術者によって保持され、必要なときにベッド上のような表面上に位置決めされ得る手持ち式装置であってもよい。
上述したシステムの複数の異なる要素を接続するために、有線または無線通信を使用することができることを理解されたい。上述した本発明の実施形態は、単なる例示であることが意図されている。したがって、本発明の範囲は、添付の特許請求の範囲によってのみ限定されることが意図されている。

Claims (14)

  1. 医療施術者によって実行される無接触ジェスチャに対応する医療情報を表示ユニットに表示することを可能にするシステムであって、
    少なくとも、前記医療施術者によって使用される基準物体の3D位置を検出するための、無接触検知ユニットと、
    前記無接触検知ユニットによって検出される前記基準物体の前記3D位置を使用して前記無接触ジェスチャを判定するステップと、
    前記無接触ジェスチャに対応する前記医療情報に対するコマンドを識別し、前記医療情報を前記表示ユニットに表示するために前記コマンドを実行するステップと、
    前記基準物体の仮想表現、ならびに、前記無接触検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、前記GUI内の前記基準物体の前記仮想表現の位置は、前記無接触検知ユニットによって検出される前記基準物体の前記3D位置に応じて選択され、前記少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、
    前記GUIを前記医療情報に隣接して表示するステップと
    を行うために、前記無接触検知ユニットと通信する少なくとも1つの制御ユニットと
    を備え、
    前記無接触検知ユニットは、前記基準物体の向きを検出するようにさらに適合され、前記GUI内の前記基準物体の前記仮想表現の向きは、前記無接触検知ユニットによって検出される前記基準物体の前記向きに応じて選択され、
    前記無接触検知ユニットは、前記基準物体の前記3D位置および前記向きを判定し、前記医療施術者によって実行される前記無接触ジェスチャを判定するように適合されている単一のセンサを含み、
    前記単一のセンサはカメラを含み、
    前記カメラは、前記少なくとも1つの仮想アイコンが表示される基準面を撮像するように構成され、
    前記システムは、前記カメラによって撮像される前記基準面上に前記少なくとも1つの仮想アイコンを投影するプロジェクタをさらに備える、システム。
  2. 前記カメラは、2Dカメラ、モノクロカメラ、3Dカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む、請求項1に記載のシステム。
  3. 医療施術者によって実行される無接触ジェスチャに対応する医療情報を表示ユニットに表示することを可能にするシステムであって、
    少なくとも、前記医療施術者によって使用される基準物体の3D位置を検出するための電場センサを含む無接触検知ユニットと、
    前記無接触検知ユニットによって検出される前記基準物体の前記3D位置を使用して前記無接触ジェスチャを判定するステップと、
    前記無接触ジェスチャに対応する前記医療情報に対するコマンドを識別し、前記医療情報を前記表示ユニットに表示するために前記コマンドを実行するステップと、
    前記基準物体の仮想表現、ならびに、前記無接触検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、前記GUI内の前記基準物体の前記仮想表現の位置は、前記無接触検知ユニットによって検出される前記基準物体の前記3D位置に応じて選択され、前記少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、
    前記GUIを前記医療情報に隣接して表示するステップと
    を行うために、前記無接触検知ユニットと通信する少なくとも1つの制御ユニットと
    を備え、
    前記無接触検知ユニットは、前記基準物体の向きを検出するようにさらに適合され、前記GUI内の前記基準物体の前記仮想表現の向きは、前記無接触検知ユニットによって検出される前記基準物体の前記向きに応じて選択され、
    前記無接触検知ユニットは、前記基準物体の前記3D位置を判定するための第1のセンサと、前記基準物体の前記向きを判定する第2のセンサとを備え、前記無接触ジェスチャは、前記第1のセンサおよび前記第2のセンサのうちの1つによって判定され、
    前記第1のセンサは、前記電場センサを含み、前記第2のセンサは、前記基準物体の向きを判定するための光センサを含む、システム。
  4. 前記光センサはカメラを含み、前記カメラは、2Dカメラ、モノクロカメラ、3Dカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む、請求項に記載のシステム。
  5. 前記カメラは、前記電場センサの上に位置する領域を撮像するように位置決めされる、請求項に記載のシステム。
  6. 前記電場センサ上または前記電場センサの周りに少なくとも1つの基準アイコンを投影するプロジェクタをさらに備え、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項に記載のシステム。
  7. 少なくとも1つの基準アイコンが表示される画面をさらに備え、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応し、前記電場センサは、前記画面上に位置決めされる、請求項に記載のシステム。
  8. 前記基準物体は、前記医療施術者の身体部分を含む、請求項1~のいずれか一項に記載のシステム。
  9. 前記基準物体は、導電性材料および半導体材料のうちの1つから作成される、請求項1~のいずれか一項に記載のシステム。
  10. 前記コマンドは、コンピュータマシンに接続可能な周辺装置からの所与の既知のコマンドに対応する、請求項1~のいずれか一項に記載のシステム。
  11. 前記医療情報は、医療画像、3Dモデル、およびそれらの任意の組み合わせまたはシーケンスを含む、請求項1~10のいずれか一項に記載のシステム。
  12. 前記医療情報に対する前記コマンドは、すでに表示されている医療画像の少なくとも1つの特性の変更を引き起こすコマンドを含む、請求項1~11のいずれか一項に記載のシステム。
  13. 前記少なくとも1つの制御ユニットは、前記医療施術者による所与の選択に応じて、前記少なくとも1つの仮想アイコンのうちの1つの外観を変更するように適合されている、請求項1~12のいずれか一項に記載のシステム。
  14. 医療施術者によって実行される無接触ジェスチャに対応する医療情報を表示ユニットに表示することを可能にするコンピュータ実施方法であって、
    前記医療施術者によって使用される基準物体の3D位置を無接触検知ユニットによって検出するステップと、
    前記検出される基準物体の3D位置を使用して前記無接触ジェスチャを判定するステップと、
    前記無接触ジェスチャに対応する前記医療情報に対するコマンドを識別し、前記医療情報を前記表示ユニットに表示するために前記コマンドを実行するステップと、
    前記基準物体の仮想表現、ならびに、前記無接触検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、前記GUI内の前記基準物体の前記仮想表現の位置は、前記検出される基準物体の3D位置に応じて選択され、前記少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、
    前記GUIを前記医療情報と共に前記表示ユニット上に表示するステップと
    を含み、
    前記無接触検知ユニットは、前記基準物体の向きを検出するようにさらに適合され、前記GUI内の前記基準物体の前記仮想表現の向きは、前記無接触検知ユニットによって検出される前記基準物体の前記向きに応じて選択され、
    前記無接触検知ユニットは、前記基準物体の前記3D位置および前記向きを判定し、前記医療施術者によって実行される前記無接触ジェスチャを判定するように適合されている単一のセンサを含み、
    前記単一のセンサはカメラを含み、
    前記カメラは、前記少なくとも1つの仮想アイコンが表示される基準面を撮像するように構成され、
    前記コンピュータ実施方法は、前記カメラによって撮像される前記基準面上に前記少なくとも1つの仮想アイコンを投影するステップをさらに含む、コンピュータ実施方法。
JP2018546777A 2015-11-27 2016-10-17 医療情報との相互作用のための方法およびシステム Active JP6994466B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562260428P 2015-11-27 2015-11-27
US62/260,428 2015-11-27
PCT/IB2016/056228 WO2017089910A1 (en) 2015-11-27 2016-10-17 Method and system for interacting with medical information

Publications (3)

Publication Number Publication Date
JP2019501747A JP2019501747A (ja) 2019-01-24
JP2019501747A5 JP2019501747A5 (ja) 2019-12-05
JP6994466B2 true JP6994466B2 (ja) 2022-01-14

Family

ID=58764004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546777A Active JP6994466B2 (ja) 2015-11-27 2016-10-17 医療情報との相互作用のための方法およびシステム

Country Status (5)

Country Link
US (2) US11256334B2 (ja)
EP (1) EP3380031A4 (ja)
JP (1) JP6994466B2 (ja)
CA (1) CA3002918C (ja)
WO (1) WO2017089910A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020661A1 (ja) * 2016-07-29 2018-02-01 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP7267209B2 (ja) * 2017-06-08 2023-05-01 メドス・インターナショナル・エスエイアールエル 滅菌野及び他の作業環境のためのユーザインターフェースシステム
US10675094B2 (en) * 2017-07-21 2020-06-09 Globus Medical Inc. Robot surgical platform
DE102018130640A1 (de) * 2017-12-18 2019-06-19 Löwenstein Medical Technology S.A. Luxembourg Virtuelle Bedienung
JP2021531120A (ja) * 2018-07-24 2021-11-18 ソニーグループ株式会社 手術室でのビデオルーティング
US20220104694A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Control of a display outside the sterile field from a device within the sterile field
US11830602B2 (en) 2020-10-02 2023-11-28 Cilag Gmbh International Surgical hub having variable interconnectivity capabilities
US11992372B2 (en) 2020-10-02 2024-05-28 Cilag Gmbh International Cooperative surgical displays
US11963683B2 (en) 2020-10-02 2024-04-23 Cilag Gmbh International Method for operating tiered operation modes in a surgical system
US11883022B2 (en) 2020-10-02 2024-01-30 Cilag Gmbh International Shared situational awareness of the device actuator activity to prioritize certain aspects of displayed information
US11748924B2 (en) 2020-10-02 2023-09-05 Cilag Gmbh International Tiered system display control based on capacity and user operation
US11877897B2 (en) 2020-10-02 2024-01-23 Cilag Gmbh International Situational awareness of instruments location and individualization of users to control displays
US11672534B2 (en) 2020-10-02 2023-06-13 Cilag Gmbh International Communication capability of a smart stapler
US20240016364A1 (en) * 2020-11-30 2024-01-18 Sony Group Corporation Surgery system, surgery control device, control method, and program
US20230023635A1 (en) * 2021-07-22 2023-01-26 Cilag Gmbh International Hub identification and tracking of objects and personnel within the or to overlay data that is custom to the user's need

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140085185A1 (en) 2011-03-24 2014-03-27 Beth Israel Deaconess Medical Center Medical image viewing and manipulation contactless gesture-responsive system and method
US20150084866A1 (en) 2012-06-30 2015-03-26 Fred Thomas Virtual hand based on combined data

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7370983B2 (en) * 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US8411034B2 (en) * 2009-03-12 2013-04-02 Marc Boillot Sterile networked interface for medical systems
US8681098B2 (en) 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US8578282B2 (en) * 2006-03-15 2013-11-05 Navisense Visual toolkit for a virtual user interface
US8390438B2 (en) * 2008-09-24 2013-03-05 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system including haptic feedback
JP5698733B2 (ja) * 2009-05-04 2015-04-08 オブロング・インダストリーズ・インコーポレーテッド 三空間入力の検出、表現、および解釈:自由空間、近接、および表面接触モードを組み込むジェスチャ連続体
US9439736B2 (en) * 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US9274699B2 (en) * 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US8878779B2 (en) * 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9146674B2 (en) * 2010-11-23 2015-09-29 Sectra Ab GUI controls with movable touch-control objects for alternate interactions
JP6110404B2 (ja) * 2011-12-23 2017-04-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3次元超音波画像のインタラクティブ表示のための方法及び装置
US20160103500A1 (en) * 2013-05-21 2016-04-14 Stanley Innovation, Inc. System and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology
US9020194B2 (en) * 2013-06-14 2015-04-28 Qualcomm Incorporated Systems and methods for performing a device action based on a detected gesture
WO2015047595A1 (en) * 2013-09-27 2015-04-02 Smiths Medical Asd, Inc. Infusion pump with touchless user interface and related methods
US20150253860A1 (en) 2014-03-07 2015-09-10 Fresenius Medical Care Holdings, Inc. E-field sensing of non-contact gesture input for controlling a medical device
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
US9839490B2 (en) * 2015-01-28 2017-12-12 Terarecon, Inc. Touchless advanced image processing and visualization
US10755128B2 (en) * 2018-12-18 2020-08-25 Slyce Acquisition Inc. Scene and user-input context aided visual search

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140085185A1 (en) 2011-03-24 2014-03-27 Beth Israel Deaconess Medical Center Medical image viewing and manipulation contactless gesture-responsive system and method
US20150084866A1 (en) 2012-06-30 2015-03-26 Fred Thomas Virtual hand based on combined data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAN,Justin H. et al.,Infomatics in Radiology Developing a Touchless User Interface for Intraoperative Image Control during Interventional Radiology Procedures,RadioGraphics,2013年04月,Vol.33 No.2 ,pages E61-E70

Also Published As

Publication number Publication date
US11256334B2 (en) 2022-02-22
US20220147150A1 (en) 2022-05-12
WO2017089910A1 (en) 2017-06-01
EP3380031A4 (en) 2018-11-21
US20180329504A1 (en) 2018-11-15
CA3002918C (en) 2019-01-08
JP2019501747A (ja) 2019-01-24
EP3380031A1 (en) 2018-10-03
US11662830B2 (en) 2023-05-30
CA3002918A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6994466B2 (ja) 医療情報との相互作用のための方法およびシステム
US10403402B2 (en) Methods and systems for accessing and manipulating images comprising medically relevant information with 3D gestures
CA2960725C (en) Surgical system user interface using cooperatively-controlled robot
US8036917B2 (en) Methods and systems for creation of hanging protocols using eye tracking and voice command and control
US20100013764A1 (en) Devices for Controlling Computers and Devices
US7694240B2 (en) Methods and systems for creation of hanging protocols using graffiti-enabled devices
DK2649409T3 (en) SYSTEM WITH INTEGRATION OF 3D USER INTERFACE
Hatscher et al. GazeTap: towards hands-free interaction in the operating room
US20140085185A1 (en) Medical image viewing and manipulation contactless gesture-responsive system and method
US20160180046A1 (en) Device for intermediate-free centralised control of remote medical apparatuses, with or without contact
EP3454177B1 (en) Method and system for efficient gesture control of equipment
US20160004315A1 (en) System and method of touch-free operation of a picture archiving and communication system
JP6488153B2 (ja) カーソル制御方法、カーソル制御プログラム、スクロール制御方法、スクロール制御プログラム、カーソル表示システム、及び医療機器
USRE48221E1 (en) System with 3D user interface integration
Manolova System for touchless interaction with medical images in surgery using Leap Motion
KR20160023015A (ko) 의료영상의 제공방법
Hurka et al. Method, accuracy and limitation of computer interaction in the operating room by a navigated surgical instrument
De Paolis A touchless gestural platform for the interaction with the patients data
US20160004318A1 (en) System and method of touch-free operation of a picture archiving and communication system
Stuij Usability evaluation of the kinect in aiding surgeon computer interaction
O’Hara et al. Interactions for Clinicians
De Paolis et al. An Advanced Modality of Visualization and Interaction with Virtual Models of the Human Body
De Paolis et al. A New Interaction Modality for the Visualization of 3D Models of Human Organ

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210917

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211021

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 6994466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150