JP2017533487A - 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム - Google Patents
医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム Download PDFInfo
- Publication number
- JP2017533487A JP2017533487A JP2017508560A JP2017508560A JP2017533487A JP 2017533487 A JP2017533487 A JP 2017533487A JP 2017508560 A JP2017508560 A JP 2017508560A JP 2017508560 A JP2017508560 A JP 2017508560A JP 2017533487 A JP2017533487 A JP 2017533487A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user interface
- display
- gesture
- present application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G13/00—Operating tables; Auxiliary appliances therefor
- A61G13/10—Parts, details or accessories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Gynecology & Obstetrics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本出願は、参照によって本明細書に組み込まれる、2014年8月15日に申請された米国特許出願第62/038157号の利益および優先権を主張する。
・位置に基づく大きさメトリックは、対応する機能の、位置に基づく量に相関し得る(例えば、手12Aの位置は、パンニングの位置に基づく量、または、スクロールされる画像の数に相関し得る、および/または、マッピングされ得る、など)。
・位置に基づく大きさメトリックは、対応する機能の速度に基づく量に相関し得る(例えば、手12Aの位置は、パンニングの速度、または、画像のスクロール速度に相関し得る、またはマッピングされ得る、など)。
・速度に基づく大きさメトリックは、対応する機能の位置に基づく量に相関し得る(例えば、手12Aの速度は、パンニングの位置に基づく量、または、スクロールされる画像の数などに相関し得る、および/またはマッピングされ得る)。
・速度に基づく大きさメトリックは、対応する機能の速度に基づく量に相関し得る(例えば、手12Aの速度は、パンニングの速度、または、スクロールされる画像の速度などに相関し得る、および/またはマッピングされ得る)。いくつかの実施形態において、他の追加的な、または代替的な大きさメトリックは、他の追加的な、または代替的な機能の量に相関し得る、および/またはマッピングされ得る。いくつかの実施形態において、大きさメトリックと機能の量との間の相関および/またはマッピングは、特定の選択された機能に依存し得る。例えば、いくつかの実施形態において、パンニング機能は、位置に基づく大きさメトリックに相関し得て、および/または、位置に基づく大きさメトリックを、位置に基づくパンニング機能にマッピングし得る。ここで、スクロール機能は、位置に基づく大きさメトリックに相関し得て、および/または、位置に基づく大きさメトリックをスクロール速度にマッピングし得る。
・システム10によってディスプレイ24上に表示され得る医療関連情報は、一般的に、いかなるタイプの情報も含み得る。いくつかの実施形態において、この医療関連情報は、処置が実施されている患者14の画像を含み得る。そのような画像は、処置の前または間に取得され得て、一般的に、そのような画像を取得するのに使用される技術のタイプに制限は無い。非限定的な例であるが、そのような画像は、X線、コンピュータ断層撮影(CT)スキャン、核磁気共鳴画像法(MRI)、超音波、内視鏡検査、エラストグラフィ、サーモグラフィ、陽電子放射断層撮影などによって取得される。いくつかの実施形態において、いくつかのそのような画像は、まとめられてビデオクリップになる。本明細書で使用されている、画像という単語は、ビデオクリップを含むものと理解されるべきである。
・図4の方法100において、特定の機能の方向、振幅、および/または、速度を有効にするのに使用されるジェスチャーは上述されたものに限定されず、TOF撮像システム32によって識別可能である、いずれかの適切なジェスチャーを含み得る。非限定的な例であるが、医療従事者12がTOF撮像システム32に対して一方向に手12Aを動かす場合、スクロール機能の速度は、速くスクロールするようになり得て、医療従事者12がTOF撮像システム32に対して逆方向に手12Aを動かす場合、遅くスクロールするようになり得る。
・上述の実施形態のいくつかにおいて、距離および閾値は、ジェスチャーを識別するべくシステム10によって使用され、または、そうでなければ、投影面38に関して記載される。いくつかの実施形態において、システム10は、TOF撮像システム32の検知ボリュームにおける他の物体からベッド28を識別するように構成され得て、投影面38に対するそのような閾値および距離を設定することに加え、または、その代わりに、ベッド28の表面(または、推定される表面)に対する、そのような閾値および距離を設定し得る。
・実施形態は本明細書において、医療従事者12が自身の手12Aを使用して作るジェスチャーを解釈するものとして記載されている。手12Aの使用は、明示的に必須のものではない。システム10は、医療従事者12が他の物体(医療従事者12が持っている器具、医療従事者12の他の手足、医療従事者12の指など)を使用して作る3Dジェスチャーを解釈するように構成され得る。
・いくつかの実施形態において、コントローラ30は、医療従事者12とユーザインタフェースメニュー画像22とのインタラクションを伴わない他のジェスチャー(例えば、指ベースのジェスチャー)を(TOF撮像システム32からの3D画像を用いて)識別し得る。そのような他のジェスチャーは、そのように識別された場合、追加的または代替的な機能を提供するのに使用され得る。
・上述の実施形態において、掌を下に下ろす動作に基づくジェスチャーボキャブラリーが、システム10によって定義および認識される。いくつかの実施形態において、このジェスチャーボキャブラリーに対し、追加、または、他の変更が行われ得る。
Claims (76)
- 医療従事者が医療処置中に医療関連情報とインタラクトすることを可能にするためのシステムであって、
ユーザインタフェースメニュー画像を投影面上に投影するためのプロジェクタと、
前記投影面を含む検知ボリューム内の複数の物体に関する3次元位置情報をキャプチャするための3次元光学撮像システムと、
前記3次元光学撮像システムから前記3次元位置情報を受け取るべく接続されているコントローラであって、前記3次元光学撮像システムと前記投影面との間の空間において前記医療従事者が作る1つまたは複数のジェスチャーを、投影されている前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に少なくとも部分的に基づいて解釈するように構成されている、コントローラと
を備え、
前記コントローラは、ディスプレイに画像をレンダリングさせるべく、前記ディスプレイに接続可能であり、前記ディスプレイに、医療関連情報を含む画像をレンダリングさせるように構成され、前記画像および前記医療関連情報のうち少なくとも1つは、解釈された前記ジェスチャーに少なくとも部分的に基づく、
システム。 - プロジェクタ、前記3次元光学撮像システム、および、前記ディスプレイは、前記医療処置が実施されている無菌環境内に位置する、請求項1、または、本願の他のいずれかの請求項に記載のシステム。
- 前記投影面は、ほぼ横方向の表面を含む、請求項1から2のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記投影面は、前記医療処置を受けている患者が位置する手術台の一部を含む、請求項1から3のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記投影面は、前記医療処置において使用するための複数の器具を保持するためのサイドテーブルの、ほぼ横方向の表面を含む、請求項1から3のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記医療従事者によって作られる前記複数のジェスチャーは、前記医療従事者の手のうち少なくとも1つによって作られる複数の動きを含む、請求項1から5のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記3次元光学撮像システムから受け取った前記3次元位置情報に少なくとも部分的に基づいて、前記ジェスチャーが、複数のジェスチャーを含むジェスチャーボキャブラリーの中の、特定のジェスチャーであることを解釈するように構成されている、請求項1から6のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記ユーザインタフェースメニュー画像は、複数のユーザインタフェース画像セクションを含み、各ユーザインタフェース画像セクションは、前記ユーザインタフェースメニュー画像の異なる部分を占め、対応する機能に関連付けられている、請求項1から7のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 各ユーザインタフェース画像セクションは、対応する機能に関連付けられた、表示されるグラフィックおよび/またはテキストを含む、請求項8、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの特定の1つの上にある前記ジェスチャーの位置に基づく、前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能との選択として解釈するよう構成されている、請求項8から9のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つからの前記ジェスチャーの近接度に基づく、前記複数のユーザインタフェース画像セクションの特定の1つと、前記対応する機能との選択として解釈するよう構成されている、請求項8から10のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記医療従事者が作るジェスチャーを、前記複数のユーザインタフェース画像セクションのうち前記特定の1つと、前記対応する機能との前記選択として解釈した後で、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記医療従事者が作る1つまたは複数の更なるジェスチャーを、前記ディスプレイ上に表示される前記医療関連情報とインタラクトするための1つまたは複数の対応するコマンドを含むものと解釈するように構成され、前記ディスプレイに、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、1つまたは複数の対応するコマンドを有効にさせる、請求項10から11のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、
前記プロジェクタに、サブメニュー画像を前記投影面上に投影させることであって、前記サブメニュー画像は、複数のサブメニュー画像セクションを含み、各サブメニュー画像セクションは、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられている、前記サブメニュー画像の異なる部分を占める、投影させること、および、
前記医療従事者によって作られる、前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの特定の1つに対する前記1つまたは複数の更なるジェスチャーの位置に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの対応する1つとの選択を含むものとして解釈することによって、
前記医療従事者が作る前記1つまたは複数の更なるジェスチャーを、1つまたは複数の対応するコマンドを含むものと解釈するように構成される、請求項12、または、本願の他のいずれかの請求項に記載のシステム。 - 各サブメニュー画像セクションは、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられた、表示されるグラフィックおよび/またはテキストを含む、請求項13、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの前記特定の1つの上の、前記1つまたは複数の更なるジェスチャーの前記位置に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものとして解釈するように構成されている、請求項13から14のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーが、前記複数のサブメニューインタフェースセクションの前記特定の1つに対する前記1つまたは複数の更なるジェスチャーの近接度に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものと解釈するよう構成されている、請求項13から15のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像をズームインするズームインコマンドと、前記ディスプレイ上に表示される画像をズームアウトするズームアウトコマンドとを含む、請求項12から16のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される複数の画像を第1方向にスクロールすること、および、ディスプレイ上に表示される画像を第2方向にスクロールすることを含む、請求項12から17のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像の周囲で様々な方向にパンニングすることを含む、請求項12から17のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記1つまたは複数の対応するコマンドは、第1方向コマンド、および、前記第1方向コマンドと逆方向である第2方向コマンドを含む、請求項12から19のいずれか一項に記載のシステム。
- 前記第1方向コマンドは、第1方向の第1ジェスチャーに関連付けられ、前記第2方向コマンドは、第2方向の第2ジェスチャーに関連付けられ、前記第1方向および前記第2方向は、互いに対してほぼ逆である、請求項20、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記3次元光学撮像システムによってキャプチャされる前記位置情報に基づいて、前記第1方向における前記ジェスチャーに関連付けられた動きの量と、前記第1方向における前記ジェスチャーの位置と、前記第1方向における前記ジェスチャーの速度とのうち、少なくとも1つに基づく、前記第1ジェスチャーに関連付けられた大きさメトリックを決定するように構成されている、請求項21、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記ディスプレイに、前記大きさメトリックに基づいて、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、1つまたは複数の対応するコマンドを有効にさせるよう構成されている、請求項22、または、本願の他のいずれかの請求項に記載のシステム。
- 前記1つまたは複数の対応するコマンドの各々は、方向性および大きさメトリックを含み、前記コントローラは、前記ディスプレイに、前記1つまたは複数の対応するコマンドの前記対応する1つの前記方向性および前記大きさメトリックに基づいて、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、前記1つまたは複数の対応するコマンドの前記対応する1つを有効にさせるよう構成されている、請求項13から19のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記特定のジェスチャーは、前記投影面の閾値距離内にある位置へ前記医療従事者の手の1つを動かすことを含む、請求項10から24のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記閾値距離は、前記投影面に関連付けられた基準点に対して決定され、前記基準点は、前記3次元光学撮像システムにもっとも近い、前記投影面上の点を含む、請求項25または本願の他のいずれかの請求項に記載のシステム。
- 前記閾値距離は、前記投影面に関連付けられた基準点に対して決定され、前記基準点は、前記投影面上の複数の点の平均を含む、請求項25または本願の他のいずれかの請求項に記載のシステム。
- 前記閾値距離は、前記検知ボリュームにおけるベッドの検出に基づく、前記投影面の前記位置の推定に対して決定される、請求項25または本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記医療従事者によって作られる前記特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つおよび前記対応する機能の前記選択として解釈した後で、前記プロジェクタに、前記複数のユーザインタフェース画像セクションの前記特定の1つ、および、前記対応する機能が選択されたという表示を、前記ユーザインタフェースメニュー画像内に投影させるように構成されている、請求項10から28のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記プロジェクタに、前記表示を前記ユーザインタフェースメニュー画像内に投影させるように構成され、前記医療従事者の身体の一部、および、前記医療従事者によって使用されている器具の1つまたは複数に、前記表示を含む前記ユーザインタフェースメニュー画像の一部を投影するよう構成されている、請求項29、または、他のいずれかの請求項に記載のシステム。
- 前記投影面は、不規則(例えば、非平面、または、ほぼ横方向であるが完全な横方向ではない)な表面形状を含み、前記コントローラは、前記プロジェクタに、前記3次元光学撮像システムによってキャプチャされた前記位置情報に基づいて、前記ユーザインタフェースメニュー画像の前記投影を調節し、前記投影面の前記不規則な表面形状を補償させるように構成されている、請求項1から30のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記プロジェクタに、前記3次元光学撮像システムによってキャプチャされた位置情報に基づいて、前記投影面の前記不規則な表面形状のモデルを作成し、前記モデルに基づいて、前記ユーザインタフェースメニュー画像の前記投影を調節させるように構成されている、請求項31、または、本願の他のいずれかの請求項に記載のシステム。
- 前記投影面の前記不規則な表面形状は、患者の身体の存在によって生じる不規則性と、手術台の複数の被覆(例えば、シーツ)の存在によって生じる複数の不規則性と、1つまたは複数の医療器具の存在によって生じる複数の不規則性とのうち1つまたは複数を含む、請求項31から32のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記ディスプレイに、解釈された前記ジェスチャーに少なくとも部分的に基づいて、医療関連情報を含む複数の画像の中の、医療関連情報を含む特定の画像をレンダリングさせるように構成されている、請求項1から33のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 前記コントローラは、前記投影面の反射率と、前記投影面の色とのうち少なくとも1つを示す測定データに基づいて前記ユーザインタフェースメニュー画像の前記投影を調節するように構成されている、請求項1から34のいずれか一項、または、本願の他のいずれかの請求項に記載のシステム。
- 本明細書に開示されている、他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項1から35のいずれか一項に記載のシステム。
- 医療従事者が医療処置中に医療関連情報とインタラクトすることを可能にする方法であって、
ユーザインタフェースメニュー画像を投影面に投影する段階と、
前記投影面を含む検知ボリューム内の複数の物体に関する3次元位置情報をキャプチャする段階と、
投影される前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に少なくとも部分的に基づいて、前記医療従事者によって作られる1つまたは複数のジェスチャーを含む前記3次元位置情報を解釈する段階と、
ディスプレイに医療関連情報を含む画像をレンダリングさせる段階であって、前記画像および前記医療関連情報の少なくとも1つは、解釈された前記ジェスチャーに少なくとも部分的に基づく、段階と
を含む、方法。 - 前記投影面は、ほぼ横方向の表面を含む、請求項37または本願の他のいずれかの請求項に記載の方法。
- 前記投影面は、前記医療処置を受けている患者が位置する手術台の一部を含む、請求項37から38のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記医療従事者によって作られる前記ジェスチャーは、前記医療従事者の手のうち少なくとも1つによって作られる複数の動きを含む、請求項37から39のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記3次元位置情報に少なくとも部分的に基づいて、前記ジェスチャーを、複数のジェスチャーを含むジェスチャーボキャブラリーの中の特定のジェスチャーであると解釈することを含む、請求項37から40のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記ユーザインタフェースメニュー画像は、複数のユーザインタフェース画像セクションを含み、各ユーザインタフェース画像セクションは、前記ユーザインタフェースメニュー画像の異なる部分を占め、対応する機能に関連付けられている、請求項37から41のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 各ユーザインタフェース画像セクションについて、対応する機能に関連付けられているグラフィックおよび/またはテキストを前記投影面上に投影する段階を含む、請求項42または本願の他のいずれかの請求項に記載の方法。
- 前記3次元位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つの上にある前記ジェスチャーの位置に基づく、前記複数のユーザインタフェース画像セクションの特定の1つと、前記対応する機能との選択として解釈する段階を含む、請求項42から43のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記3次元位置情報に基づいて、前記医療従事者によって作られる特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つに対する前記ジェスチャーの近接度に基づく、前記複数のユーザインタフェース画像セクションの特定の1つと、前記対応する機能との選択として解釈する段階を含む、請求項42から44のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能との前記選択として解釈する段階の後で、前記3次元位置情報に基づいて、前記医療従事者によって作られるジェスチャーを、前記医療従事者によって作られる1つまたは複数の更なるジェスチャーを、前記ディスプレイ上に表示される前記医療関連情報とインタラクトするための1つまたは複数の対応するコマンドを含むものとして解釈する段階と、前記ディスプレイに、前記ディスプレイ上にレンダリングされる前記医療関連情報上で、それらの1つまたは複数の対応するコマンドを有効にさせる段階とを含む、請求項44から45のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- サブメニュー画像を前記投影面に投影する段階であって、前記サブメニュー画像は、複数のサブメニュー画像セクションを含み、各サブメニュー画像セクションは、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられている前記サブメニュー画像の異なる部分を占める、段階と、
前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの特定の1つに対する前記1つまたは複数の更なるジェスチャーの位置に基づいて、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの対応する1つとの選択を含むものとして解釈する段階とによって、
前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、1つまたは複数の対応するコマンドを含むものとして解釈する段階を含む、請求項46または本願の他のいずれかの請求項に記載の方法。 - 各サブメニュー画像セクションについて、前記1つまたは複数の対応するコマンドの対応する1つに関連付けられているグラフィックおよび/またはテキストを表示する段階を含む、請求項47または本願の他のいずれかの請求項に記載の方法。
- 前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの前記特定の1つの上にある前記1つまたは複数の更なるジェスチャーの前記位置に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものとして解釈する段階を含む、請求項47から48のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記医療従事者によって作られる前記1つまたは複数の更なるジェスチャーを、前記複数のサブメニューインタフェースセクションの前記特定の1つに対する前記1つまたは複数の更なるジェスチャーの近接度に基づく、前記複数のサブメニューインタフェースセクションの前記特定の1つと、前記1つまたは複数の対応するコマンドの前記対応する1つとの前記選択を含むものとして解釈する段階を含む、請求項47から49のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像をズームインするためのズームインコマンドと、前記ディスプレイ上に表示される画像をズームアウトするためのズームアウトコマンドとを含む、請求項46から50のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される複数の画像の第1方向へのスクロールと、ディスプレイ上に表示される複数の画像の第2方向へのスクロールとを含む、請求項46から51のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記1つまたは複数の対応するコマンドは、前記ディスプレイ上に表示される画像の周囲の様々な方向でのパンニングを含む、請求項46から52のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記1つまたは複数の対応するコマンドは、第1方向コマンドと、前記第1方向コマンドと逆方向の第2方向コマンドとを含む、請求項46から53のいずれか一項に記載の方法。
- 前記第1方向コマンドは、第1方向での第1ジェスチャーに関連付けられ、前記第2方向コマンドは、第2方向での第2ジェスチャーに関連付けられ、前記第1方向および前記第2方向は、互いにほぼ逆の向きである、請求項54または本願の他のいずれかの請求項に記載の方法。
- 前記3次元位置情報に基づいて、前記第1方向での前記ジェスチャーに関連付けられた動きの量と前記第1方向での前記ジェスチャーの位置と、前記第1方向での前記ジェスチャーの速度との、少なくとも1つに基づき、前記第1ジェスチャーに関連付けられた大きさメトリックを判定する段階を含む、請求項55、または、本願の他のいずれかの請求項に記載の方法。
- 前記ディスプレイに、前記大きさメトリックに基づいて、前記ディスプレイ上にレンダリングされた前記医療関連情報上で、1つまたは複数の対応するコマンドを有効にさせる段階を含む、請求項56、または、本願の他のいずれかの請求項に記載の方法。
- 前記1つまたは複数の対応するコマンドの各々は、方向性および大きさメトリックを含み、前記方法は、前記ディスプレイに、前記1つまたは複数の対応するコマンドの前記対応する1つの前記方向性および前記大きさメトリックに基づいて、前記ディスプレイ上でレンダリングされる前記医療関連情報上で、前記1つまたは複数の対応するコマンドの前記対応する1つを有効にさせる段階を含む、請求項47から53のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記特定のジェスチャーは、前記医療従事者の手の1つを、前記投影面の閾値距離内の位置へ動かす段階を含む、請求項44から58のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記医療従事者によって作られる前記特定のジェスチャーを、前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能との前記選択として解釈した後で、前記プロジェクタに、前記複数のユーザインタフェース画像セクションの前記特定の1つと、前記対応する機能とが選択されたという表示を、前記ユーザインタフェースメニュー画像内に投影させる段階を含む、請求項44から59のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記プロジェクタに、前記ユーザインタフェースメニュー画像内に前記表示を投影させる段階、および、前記医療従事者の身体の一部および前記医療従事者によって使用されている器具のうち、1つまたは複数に、前記表示を含む前記ユーザインタフェースメニュー画像の一部を投影する段階を含む、請求項60または他のいずれかの請求項に記載の方法。
- 前記ディスプレイに、解釈された前記ジェスチャーに少なくとも部分的に基づいて、医療関連情報を含む複数の画像の中の、医療関連情報を含む特定の画像をレンダリングさせる段階を含む、請求項37から61のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 前記投影面の反射率、および、前記投影面の色のうち、少なくとも1つを示す測定データに基づいて、前記ユーザインタフェースメニュー画像の前記投影を調節する段階を含む、請求項37から62のいずれか一項、または、本願の他のいずれかの請求項に記載の方法。
- 本明細書に開示されている、他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項37から63のいずれか一項に記載の方法。
- 外科的処置を実施するためのシステムであって、
ユーザインタフェースメニュー画像を投影面上に投影するためのプロジェクタと、
前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャするための3次元光学撮像システムと、
前記3次元光学撮像システムから前記3次元位置情報を受け取るべく接続され、投影される前記ユーザインタフェースメニュー画像に対するジェスチャーの位置に基づいて、前記3次元光学センサと前記投影面との間の空間において前記医療従事者が作る1つまたは複数の前記ジェスチャーを解釈するように構成されたコントローラと、
ディスプレイと
を備え、
前記コントローラは、前記ディスプレイ上に複数の画像を表示させるべく接続され、医療関連情報を含む画像を前記ディスプレイ上に表示するように構成され、前記医療関連情報は、解釈された前記ジェスチャーに少なくとも部分的に基づく、
システム。 - 請求項1から36、または、本願の他のいずれかの請求項の他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項65、または、本願の他のいずれかの請求項に記載のシステム。
- 本明細書に開示されている、他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項65から66の何れか一項に記載のシステム。
- 外科的処置を実施するための方法であって、
ユーザインタフェースメニュー画像を投影面に投影する段階と、
前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャする段階と、
前記3次元位置情報が、前記医療従事者によって作られる1つまたは複数のジェスチャーを含むということを、投影される前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に基づいて解釈する段階と、
解釈された前記ジェスチャーに少なくとも部分的に基づく、医療関連情報を含む画像を表示する段階と
を含む、方法。 - 請求項37から64、または、本願の他のいずれかの請求項の他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項68または本願の他のいずれかの請求項に記載の方法。
- 本明細書に開示されている他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項68から69のいずれか一項に記載の方法。
- 医療従事者が医療処置の間に医療関連情報とインタラクトすることを可能にするシステムであって、
ユーザインタフェースメニュー画像を投影面に投影するためのプロジェクタと、
前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャするための3次元光学撮像システムと、
前記3次元光学撮像システムから前記3次元位置情報を受け取るべく接続され、前記投影されるユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に基づいて、前記3次元光学撮像システムと前記投影面との間の空間において前記医療従事者によって作られる1つまたは複数のジェスチャーを解釈するように構成されているコントローラと、
ディスプレイと
を備え、
前記コントローラは、前記ディスプレイ上に複数の画像を表示させるべく接続され、医療関連情報を含む画像を前記ディスプレイ上に表示するよう指示するように構成され、前記医療関連情報は、解釈された前記ジェスチャーに少なくとも部分的に基づく、
システム。 - 請求項1から35、または、本願の他のいずれかの請求項の、他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項71または本願の他のいずれかの請求項に記載のシステム。
- 本明細書に開示されている他のいずれかの特徴、特徴のコンビネーション、または、特徴のサブコンビネーションを含む、請求項71から72のいずれか一項に記載のシステム。
- 医療従事者が医療処置中に医療関連情報とインタラクトすることを可能にする方法であって、
ユーザインタフェースメニュー画像を投影面に投影する段階と、
前記投影面を含む検知ボリューム内の複数の物体の3次元位置情報をキャプチャする段階と、
投影される前記ユーザインタフェースメニュー画像に対する前記ジェスチャーの位置に基づいて、前記医療従事者によって作られる1つまたは複数のジェスチャーを含む前記3次元位置情報を解釈する段階と、
医療関連情報を含む画像を表示する段階であって、前記画像は解釈された前記ジェスチャーに少なくとも部分的に基づく、段階と
を含む、方法。 - 請求項37から64、または、本願の他のいずれかの請求項の、他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項74、または、本願の他のいずれかの請求項に記載の方法。
- 本明細書に開示されている他のいずれかの特徴、複数の特徴のコンビネーション、または、複数の特徴のサブコンビネーションを含む、請求項74から75のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462038157P | 2014-08-15 | 2014-08-15 | |
US62/038,157 | 2014-08-15 | ||
PCT/CA2015/050764 WO2016023123A1 (en) | 2014-08-15 | 2015-08-13 | Methods and systems for performing medical procedures and for accessing and/or manipulating medically relevant information |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017533487A true JP2017533487A (ja) | 2017-11-09 |
JP2017533487A5 JP2017533487A5 (ja) | 2018-09-20 |
Family
ID=55303733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017508560A Pending JP2017533487A (ja) | 2014-08-15 | 2015-08-13 | 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10403402B2 (ja) |
EP (1) | EP3180721A4 (ja) |
JP (1) | JP2017533487A (ja) |
CN (1) | CN106922190B (ja) |
CA (1) | CA2993876C (ja) |
WO (1) | WO2016023123A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021071894A (ja) * | 2019-10-30 | 2021-05-06 | 三菱電機株式会社 | 操作装置、操作方法及びプログラム |
US11861145B2 (en) | 2018-07-17 | 2024-01-02 | Methodical Mind, Llc | Graphical user interface system |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10722200B2 (en) * | 2015-06-04 | 2020-07-28 | Siemens Healthcare Gmbh | Apparatus and methods for a projection display device on X-ray imaging devices |
KR102560558B1 (ko) | 2016-05-20 | 2023-07-27 | 매직 립, 인코포레이티드 | 사용자 인터페이스 메뉴의 콘텍추얼 인식 |
US10806533B2 (en) * | 2016-07-14 | 2020-10-20 | Intuitive Surgical Operations, Inc. | Systems and methods for onscreen menus in a teleoperational medical system |
EP3540580A4 (en) * | 2016-11-08 | 2020-05-27 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
US10331276B2 (en) * | 2016-12-30 | 2019-06-25 | Intel Corporation | Projected interactive display surface interactivity determination |
WO2018148845A1 (en) | 2017-02-17 | 2018-08-23 | Nz Technologies Inc. | Methods and systems for touchless control of surgical environment |
JP7267209B2 (ja) * | 2017-06-08 | 2023-05-01 | メドス・インターナショナル・エスエイアールエル | 滅菌野及び他の作業環境のためのユーザインターフェースシステム |
IT201700114495A1 (it) * | 2017-10-11 | 2019-04-11 | General Medical Merate S P A | Sistema per il controllo di almeno un movimento di un componente motorizzato di un’apparecchiatura radiologica e apparecchiatura radiologica che lo utilizza |
US10506224B2 (en) * | 2017-11-07 | 2019-12-10 | Oriental Institute Of Technology | Holographic three dimensional imaging projecting medical apparatus |
DE102017127791A1 (de) * | 2017-11-24 | 2019-05-29 | Aesculap Ag | Medizinisches Steuersystem und medizinischer Sterilraum mit Steuersystem |
US20190215460A1 (en) * | 2018-01-09 | 2019-07-11 | Osram Sylvania Inc. | User Interface for Control of Building System Components |
WO2019202982A1 (ja) * | 2018-04-19 | 2019-10-24 | 富士フイルム株式会社 | 内視鏡装置、内視鏡操作方法、及びプログラム |
EP3773219A1 (en) | 2018-05-10 | 2021-02-17 | Siemens Medical Solutions USA, Inc. | Visual indicator system for patient bed |
US11654304B2 (en) | 2018-12-17 | 2023-05-23 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for determining a region of interest of a subject |
CN110507337B (zh) * | 2019-08-28 | 2023-07-11 | 上海联影医疗科技股份有限公司 | 一种医学设备控制系统、医学设备控制方法及装置 |
US10758309B1 (en) * | 2019-07-15 | 2020-09-01 | Digital Surgery Limited | Methods and systems for using computer-vision to enhance surgical tool control during surgeries |
CN114093493A (zh) * | 2021-08-30 | 2022-02-25 | 武汉联影医疗科技有限公司 | 一种用于控制医学影像设备的界面的系统和方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004258714A (ja) * | 2003-02-24 | 2004-09-16 | Toshiba Corp | 画像表示装置 |
US20090077504A1 (en) * | 2007-09-14 | 2009-03-19 | Matthew Bell | Processing of Gesture-Based User Interactions |
JP2011517357A (ja) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | 改良されたジェスチャに基づく画像操作 |
US20110181553A1 (en) * | 2010-01-04 | 2011-07-28 | Microvision, Inc. | Interactive Projection with Gesture Recognition |
JP2013068813A (ja) * | 2011-09-22 | 2013-04-18 | Casio Comput Co Ltd | 投影装置、投影制御方法及びプログラム |
JP2013218395A (ja) * | 2012-04-05 | 2013-10-24 | Sony Corp | 情報処理装置、プログラム及び情報処理方法 |
US20130321346A1 (en) * | 2012-05-31 | 2013-12-05 | Opportunity Partners Inc. | Interactive Surface |
US20140049465A1 (en) * | 2011-03-28 | 2014-02-20 | Jamie Douglas Tremaine | Gesture operated control for medical information systems |
US20140177909A1 (en) * | 2012-12-24 | 2014-06-26 | Industrial Technology Research Institute | Three-dimensional interactive device and operation method thereof |
US20150208019A1 (en) * | 2014-01-20 | 2015-07-23 | Lenovo (Singapore) Pte. Ltd. | Image correction |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007060606A1 (en) | 2005-11-25 | 2007-05-31 | Koninklijke Philips Electronics N.V. | Touchless manipulation of an image |
EP2017756A1 (de) * | 2007-07-20 | 2009-01-21 | BrainLAB AG | Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung |
WO2014000129A1 (en) * | 2012-06-30 | 2014-01-03 | Intel Corporation | 3d graphical user interface |
US9174068B2 (en) * | 2012-10-05 | 2015-11-03 | Siemens Aktiengesellschaft | Navigation device for brachytherapy and method for operating the navigation device |
-
2015
- 2015-08-13 CN CN201580052437.2A patent/CN106922190B/zh not_active Expired - Fee Related
- 2015-08-13 CA CA2993876A patent/CA2993876C/en active Active
- 2015-08-13 WO PCT/CA2015/050764 patent/WO2016023123A1/en active Search and Examination
- 2015-08-13 EP EP15832208.1A patent/EP3180721A4/en not_active Withdrawn
- 2015-08-13 JP JP2017508560A patent/JP2017533487A/ja active Pending
-
2017
- 2017-02-14 US US15/432,749 patent/US10403402B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004258714A (ja) * | 2003-02-24 | 2004-09-16 | Toshiba Corp | 画像表示装置 |
US20040242988A1 (en) * | 2003-02-24 | 2004-12-02 | Kabushiki Kaisha Toshiba | Operation recognition system enabling operator to give instruction without device operation |
US20120287044A1 (en) * | 2007-09-14 | 2012-11-15 | Intellectual Ventures Holding 67 Llc | Processing of gesture-based user interactions using volumetric zones |
JP2010539590A (ja) * | 2007-09-14 | 2010-12-16 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US20090077504A1 (en) * | 2007-09-14 | 2009-03-19 | Matthew Bell | Processing of Gesture-Based User Interactions |
JP2011517357A (ja) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | 改良されたジェスチャに基づく画像操作 |
US20110181553A1 (en) * | 2010-01-04 | 2011-07-28 | Microvision, Inc. | Interactive Projection with Gesture Recognition |
US20140049465A1 (en) * | 2011-03-28 | 2014-02-20 | Jamie Douglas Tremaine | Gesture operated control for medical information systems |
JP2013068813A (ja) * | 2011-09-22 | 2013-04-18 | Casio Comput Co Ltd | 投影装置、投影制御方法及びプログラム |
JP2013218395A (ja) * | 2012-04-05 | 2013-10-24 | Sony Corp | 情報処理装置、プログラム及び情報処理方法 |
US20130321346A1 (en) * | 2012-05-31 | 2013-12-05 | Opportunity Partners Inc. | Interactive Surface |
US20140177909A1 (en) * | 2012-12-24 | 2014-06-26 | Industrial Technology Research Institute | Three-dimensional interactive device and operation method thereof |
US20150208019A1 (en) * | 2014-01-20 | 2015-07-23 | Lenovo (Singapore) Pte. Ltd. | Image correction |
Non-Patent Citations (1)
Title |
---|
JUSTIN H.TAN: "Informatics in Radiogy:Developping a Touchless User Interface for Interaoparative Image Control durl", RADIOGRAPHICS, vol. 33, no. 2, JPN7019002129, 30 April 2013 (2013-04-30), pages 61 - 70, ISSN: 0004216059 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11861145B2 (en) | 2018-07-17 | 2024-01-02 | Methodical Mind, Llc | Graphical user interface system |
JP2021071894A (ja) * | 2019-10-30 | 2021-05-06 | 三菱電機株式会社 | 操作装置、操作方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN106922190A (zh) | 2017-07-04 |
EP3180721A4 (en) | 2018-04-04 |
US10403402B2 (en) | 2019-09-03 |
US20170228104A1 (en) | 2017-08-10 |
CA2993876C (en) | 2023-03-07 |
EP3180721A1 (en) | 2017-06-21 |
CN106922190B (zh) | 2020-09-18 |
CA2993876A1 (en) | 2016-02-18 |
WO2016023123A1 (en) | 2016-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10403402B2 (en) | Methods and systems for accessing and manipulating images comprising medically relevant information with 3D gestures | |
US11662830B2 (en) | Method and system for interacting with medical information | |
JP7146772B2 (ja) | コンテクストオーバレイを提供する拡張現実インターベンションシステム | |
US20230363833A1 (en) | Methods And Systems For Robot-Assisted Surgery | |
US10420533B2 (en) | Ultrasound diagnosis apparatus and control method thereof | |
US9329675B2 (en) | System with 3D user interface integration | |
ES2941511T3 (es) | Sistema de escáner 3D con escáner de mano | |
EP3454177B1 (en) | Method and system for efficient gesture control of equipment | |
US9292197B2 (en) | Method, apparatus and computer program product for facilitating the manipulation of medical images | |
JP6501525B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
USRE48221E1 (en) | System with 3D user interface integration | |
KR101611484B1 (ko) | 의료영상의 제공방법 | |
JP6462358B2 (ja) | 医用画像表示端末および医用画像表示プログラム | |
Gallo et al. | Wii remote-enhanced hand-computer interaction for 3D medical image analysis | |
US20200363877A1 (en) | Healthcare information manipulation and visualization controllers | |
JP6902012B2 (ja) | 医用画像表示端末および医用画像表示プログラム | |
JP7279133B2 (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200218 |