JP2019501747A - 医療情報との相互作用のための方法およびシステム - Google Patents
医療情報との相互作用のための方法およびシステム Download PDFInfo
- Publication number
- JP2019501747A JP2019501747A JP2018546777A JP2018546777A JP2019501747A JP 2019501747 A JP2019501747 A JP 2019501747A JP 2018546777 A JP2018546777 A JP 2018546777A JP 2018546777 A JP2018546777 A JP 2018546777A JP 2019501747 A JP2019501747 A JP 2019501747A
- Authority
- JP
- Japan
- Prior art keywords
- medical
- electric field
- icon
- camera
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000003993 interaction Effects 0.000 title description 33
- 230000005684 electric field Effects 0.000 claims description 216
- 230000008859 change Effects 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 32
- 238000004891 communication Methods 0.000 claims description 25
- 230000003287 optical effect Effects 0.000 claims description 13
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 239000004020 conductor Substances 0.000 claims description 5
- 239000000463 material Substances 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 239000004065 semiconductor Substances 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 41
- 210000003811 finger Anatomy 0.000 description 23
- 230000033001 locomotion Effects 0.000 description 20
- 230000000007 visual effect Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000003068 static effect Effects 0.000 description 8
- 230000001954 sterilising effect Effects 0.000 description 6
- 238000004659 sterilization and disinfection Methods 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 238000004091 panning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 239000000356 contaminant Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000013152 interventional procedure Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000005686 electrostatic field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1415—Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/08—Biomedical applications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
一実施形態では、光センサはカメラを含む。
一実施形態では、システムは、カメラによって撮像される基準面上に少なくとも1つの基準アイコンを投影するプロジェクタをさらに備え、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
一実施形態では、カメラは、2Dカメラ、モノクロカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む。
一実施形態では、身体部分は、手および少なくとも1本の指のうちの一方を含む。
一実施形態では、上記基準物体の位置および向きを検出するステップは、基準物体の位置および向きを判定し、医療施術者によって実行されるジェスチャを判定するように適合された単一のセンサを使用して実施される。
一実施形態では、上記検出するステップはカメラを使用して行われる。
一実施形態では、方法は、カメラによって撮像される基準面上に少なくとも1つの基準アイコンを投影するステップをさらに含み、少なくとも1つの基準アイコンの各々は、少なくとも1つの仮想アイコンのそれぞれに対応する。
一実施形態では、カメラは、2Dカメラ、モノクロカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む。
一実施形態では、身体部分は、手および少なくとも1本の指のうちの一方を含む。
シングルエアタップ:領域およびシステム状態を反応させる。
左スワイプ:ズームモードを起動する。
上スワイプ:パンモードを起動する。1本の指でカーソルを所望のロケーションに移動することによってパンする。
Claims (58)
- 医療施術者が医療情報と相互作用することを可能にするシステムであって、
検知ユニットであって、少なくとも、前記医療施術者によって前記検知ユニットと相互作用するために使用される基準物体の位置を検出するための、検知ユニットと、
前記検知ユニットによって検出される前記基準物体の前記位置を使用して前記医療施術者によって実行されるジェスチャを判定するステップと、
前記受信されるジェスチャに対応する前記医療情報に対するコマンドを識別し、前記医療情報を表示ユニットに表示するために前記コマンドを実行するステップと、
前記基準物体の仮想表現、ならびに、前記検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、前記GUI内の前記基準物体の前記仮想表現の位置は、前記検知ユニットによって検出される前記基準物体の前記位置に応じて選択され、前記少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、
前記GUIを前記医療情報と共に前記表示ユニット上に表示するステップと
を行うために、前記検知ユニットと通信する少なくとも1つの制御ユニットと
を備える、システム。 - 前記コントローラは、前記医療情報に隣接して前記GUIを表示するように構成される、請求項1に記載のシステム。
- 前記コントローラは、前記GUIおよび前記医療情報を同じ表示装置に表示するように構成される、請求項2に記載のシステム。
- 前記コントローラは、前記医療施術者が前記表示されている医療情報を見るときに前記GUIが前記医療施術者の視野にあるように、前記GUIおよび前記医療情報を、互いに隣接して位置決めされている別々の表示装置に表示するように構成される、請求項2に記載のシステム。
- 前記検知ユニットは、前記基準物体の向きを検出するようにさらに適合され、前記GUI内の前記基準物体の前記仮想表現の向きは、前記検知ユニットによって検出される前記基準物体の前記向きに応じて選択される、請求項1〜4のいずれか一項に記載のシステム。
- 前記検知ユニットは、前記基準物体の前記位置および前記向きを判定し、前記医療施術者によって実行される前記ジェスチャを判定するように適合されている単一のセンサを含む、請求項5に記載のシステム。
- 前記単一のセンサは光センサを含む、請求項6に記載のシステム。
- 前記光センサはカメラを含む、請求項7に記載のシステム。
- 前記カメラは、3Dカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む、請求項8に記載のシステム。
- 前記カメラは、基準面を撮像するように構成されている、請求項8または9に記載のシステム。
- 前記カメラによって撮像される前記基準面上に少なくとも1つの基準アイコンを投影するプロジェクタをさらに備え、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項10に記載のシステム。
- 前記基準面は、少なくとも1つの基準アイコンが表示される画面を含み、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項10に記載のシステム。
- 前記検知ユニットは、前記基準物体の前記位置を判定するための第1のセンサと、前記基準物体の前記向きを判定する第2のセンサとを備え、前記ジェスチャは、前記第1のセンサおよび前記第2のセンサのうちの1つによって判定される、請求項5に記載のシステム。
- 前記第1のセンサは、前記基準物体の前記位置を判定するための電場センサを含み、前記第2のセンサは、前記基準物体の向きを判定するための光センサを含む、請求項13に記載のシステム。
- 前記光センサはカメラを含む、請求項14に記載のシステム。
- 前記カメラは、2Dカメラ、モノクロカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む、請求項15に記載のシステム。
- 前記カメラは、前記電場センサの上に位置する領域を撮像するように位置決めされる、請求項14〜16のいずれか一項に記載のシステム。
- 前記電場センサ上または前記電場センサの周りに少なくとも1つの基準アイコンを投影するプロジェクタをさらに備え、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項17に記載のシステム。
- 少なくとも1つの基準アイコンが表示される画面をさらに備え、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応し、前記電場センサは、前記画面上に位置決めされる、請求項17に記載のシステム。
- 前記基準物体は、前記医療施術者の身体部分を含む、請求項1〜19のいずれか一項に記載のシステム。
- 前記身体部分は、手および少なくとも1本の指のうちの一方を含む、請求項20に記載のシステム。
- 前記基準物体は、導電性材料および半導体材料のうちの1つから作成される、請求項20に記載のシステム。
- 前記基準物体は、ペン、スタイラス、ボール、リング、およびメスのうちの1つを含む、請求項20に記載のシステム。
- 前記コマンドは、コンピュータマシンに接続可能な周辺装置からの所与の既知のコマンドに対応する、請求項1〜23のいずれか一項に記載のシステム。
- 前記所与の既知のコマンドは、マウスコマンド、フットペダルコマンド、ジョイスティックコマンド、およびキーボードコマンドのうちの1つに対応する、請求項24に記載のシステム。
- 前記医療情報は、医療画像、3Dモデル、およびそれらの任意の組み合わせまたはシーケンスを含む、請求項1〜25のいずれか一項に記載のシステム。
- 前記医療情報に対する前記コマンドは、すでに表示されている医療画像の少なくとも1つの特性の変更を引き起こすコマンドを含む、請求項1〜26のいずれか一項に記載のシステム。
- 前記少なくとも1つの特性は、形状、サイズ、向き、色、輝度、テキストおよびコントラストの少なくとも1つを含む、請求項27に記載のシステム。
- 前記コントローラは、前記医療施術者による所与の選択に応じて、前記少なくとも1つの仮想アイコンのうちの1つの外観を変更するように適合されている、請求項1〜28のいずれか一項に記載のシステム。
- 医療施術者が医療情報と相互作用することを可能にするコンピュータ実施方法であって、
前記医療施術者によって検知ユニットと相互作用するために使用される基準物体の位置を検出するステップと、
前記検出される基準物体の位置を使用して前記医療施術者によって実行されるジェスチャを判定するステップと、
前記受信されるジェスチャに対応する前記医療情報に対するコマンドを識別し、前記医療情報を表示ユニットに表示するために前記コマンドを実行するステップと、
前記基準物体の仮想表現、ならびに、前記検知ユニットの仮想表現および少なくとも1つの仮想アイコンのうちの少なくとも一方を含むグラフィカルユーザインターフェース(GUI)を生成するステップであり、前記GUI内の前記基準物体の前記仮想表現の位置は、前記検出される基準物体の位置に応じて選択され、前記少なくとも1つの仮想アイコンの各々は、それぞれの動作モード、それぞれのユーザ通知、およびそれぞれのシステム設定オプションのうちの1つに対応する、生成するステップと、
前記GUIを前記医療情報と共に前記表示ユニット上に表示するステップと
を含む、コンピュータ実施方法。 - 前記GUIを表示する前記ステップは、前記医療情報に隣接して前記GUIを表示することを含む、請求項30に記載のコンピュータ実施方法。
- 前記GUIを表示する前記ステップは、前記GUIおよび前記医療情報を同じ表示装置に表示することを含む、請求項31に記載のコンピュータ実施方法。
- 前記表示するステップは、前記医療施術者が前記表示されている医療情報を見るときに前記GUIが前記医療施術者の視野にあるように、前記GUIおよび前記医療情報を、互いに隣接して位置決めされている別々の表示装置に表示することを含む、請求項31に記載のコンピュータ実施方法。
- 前記基準物体の向きを検出することをさらに含む、請求項30〜33のいずれか一項に記載のコンピュータ実施方法。
- 前記基準物体の前記位置および前記向きを検出する前記ステップは、単一のセンサを用いて実行される、請求項34に記載のコンピュータ実施方法。
- 前記検出するステップが、光センサを使用して実行される、請求項35に記載のコンピュータ実施方法。
- 前記検出するステップが、カメラを使用して実行される、請求項36に記載のコンピュータ実施方法。
- 前記検出するステップは、3Dカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを使用して実施される、請求項37に記載のコンピュータ実施方法。
- 前記カメラは、基準面を撮像するように構成されている、請求項37または38に記載のコンピュータ実施方法。
- 前記カメラによって撮像される前記基準面上に少なくとも1つの基準アイコンを投影するステップをさらに含み、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項39に記載のコンピュータ実施方法。
- 前記基準面は、少なくとも1つの基準アイコンが表示される画面を含み、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項39に記載のコンピュータ実施方法。
- 前記基準物体の前記位置を判定する前記ステップは、第1のセンサを使用して実施され、前記基準物体の前記向きを判定するステップは、第2のセンサを使用して実施され、前記ジェスチャは、前記第1のセンサおよび前記第2のセンサのうちの1つを使用して判定される、請求項35に記載のコンピュータ実施方法。
- 前記第1のセンサは、前記基準物体の前記位置を判定するための電場センサを含み、前記第2のセンサは、前記基準物体の前記向きを判定するための光センサを含む、請求項42に記載のコンピュータ実施方法。
- 前記光センサはカメラを含む、請求項43に記載のコンピュータ実施方法。
- 前記カメラは、2Dカメラ、モノクロカメラ、ステレオカメラ、および飛行時間型カメラのうちの1つを含む、請求項44に記載のコンピュータ実施方法。
- 前記電場センサの上に位置する領域を撮像するように、前記カメラを位置決めするステップをさらに含む、請求項43〜45のいずれか一項に記載のコンピュータ実施方法。
- 前記電場センサ上または前記電場センサの周りに少なくとも1つの基準アイコンを投影するステップをさらに含み、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応する、請求項46に記載のコンピュータ実施方法。
- 少なくとも1つの基準アイコンを画面に表示するステップをさらに含み、前記少なくとも1つの基準アイコンの各々は、前記少なくとも1つの仮想アイコンのそれぞれに対応し、前記電場センサは、前記画面上に位置決めされる、請求項46に記載のコンピュータ実施方法。
- 前記基準物体は、前記医療施術者の身体部分を含む、請求項30〜48のいずれか一項に記載のコンピュータ実施方法。
- 前記身体部分は、手および少なくとも1本の指のうちの一方を含む、請求項49に記載のコンピュータ実施方法。
- 前記基準物体は、導電性材料および半導体材料のうちの1つから作成される、請求項49に記載のコンピュータ実施方法。
- 前記基準物体は、ペン、スタイラス、ボール、リング、およびメスのうちの1つを含む、請求項49に記載のコンピュータ実施方法。
- 前記コマンドは、コンピュータマシンに接続可能な周辺装置からの所与の既知のコマンドに対応する、請求項30〜52のいずれか一項に記載のコンピュータ実施方法。
- 前記所与の既知のコマンドは、マウスコマンド、フットペダルコマンド、ジョイスティックコマンド、およびキーボードコマンドのうちの1つに対応する、請求項53に記載のコンピュータ実施方法。
- 前記医療情報は、医療画像、3Dモデル、およびそれらの任意の組み合わせまたはシーケンスを含む、請求項30〜54のいずれか一項に記載のコンピュータ実施方法。
- 前記医療情報に対する前記コマンドは、すでに表示されている医療画像の少なくとも1つの特性の変更を引き起こすコマンドを含む、請求項30〜55のいずれか一項に記載のコンピュータ実施方法。
- 前記少なくとも1つの特性は、形状、サイズ、向き、色、輝度、テキストおよびコントラストの少なくとも1つを含む、請求項56に記載のコンピュータ実施方法。
- 前記医療施術者による所与の選択に応じて、前記少なくとも1つの仮想アイコンのうちの1つの外観を変更するステップをさらに含む、請求項1〜28のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562260428P | 2015-11-27 | 2015-11-27 | |
US62/260,428 | 2015-11-27 | ||
PCT/IB2016/056228 WO2017089910A1 (en) | 2015-11-27 | 2016-10-17 | Method and system for interacting with medical information |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019501747A true JP2019501747A (ja) | 2019-01-24 |
JP2019501747A5 JP2019501747A5 (ja) | 2019-12-05 |
JP6994466B2 JP6994466B2 (ja) | 2022-01-14 |
Family
ID=58764004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018546777A Active JP6994466B2 (ja) | 2015-11-27 | 2016-10-17 | 医療情報との相互作用のための方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11256334B2 (ja) |
EP (1) | EP3380031A4 (ja) |
JP (1) | JP6994466B2 (ja) |
CA (1) | CA3002918C (ja) |
WO (1) | WO2017089910A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022113811A1 (ja) * | 2020-11-30 | 2022-06-02 | ソニーグループ株式会社 | 手術システム、手術用制御装置、制御方法、及び、プログラム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018020661A1 (ja) * | 2016-07-29 | 2018-02-01 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
WO2018226850A1 (en) | 2017-06-08 | 2018-12-13 | Medos International Sàrl | User interface systems for sterile fields and other working environments |
US10675094B2 (en) * | 2017-07-21 | 2020-06-09 | Globus Medical Inc. | Robot surgical platform |
DE102018130640A1 (de) * | 2017-12-18 | 2019-06-19 | Löwenstein Medical Technology S.A. Luxembourg | Virtuelle Bedienung |
JP2021531120A (ja) * | 2018-07-24 | 2021-11-18 | ソニーグループ株式会社 | 手術室でのビデオルーティング |
WO2020140042A1 (en) * | 2018-12-28 | 2020-07-02 | Activ Surgical, Inc. | User interface elements for orientation of remote camera during surgery |
US12016566B2 (en) | 2020-10-02 | 2024-06-25 | Cilag Gmbh International | Surgical instrument with adaptive function controls |
US12064293B2 (en) | 2020-10-02 | 2024-08-20 | Cilag Gmbh International | Field programmable surgical visualization system |
US11992372B2 (en) | 2020-10-02 | 2024-05-28 | Cilag Gmbh International | Cooperative surgical displays |
US11830602B2 (en) | 2020-10-02 | 2023-11-28 | Cilag Gmbh International | Surgical hub having variable interconnectivity capabilities |
US11672534B2 (en) | 2020-10-02 | 2023-06-13 | Cilag Gmbh International | Communication capability of a smart stapler |
US11748924B2 (en) | 2020-10-02 | 2023-09-05 | Cilag Gmbh International | Tiered system display control based on capacity and user operation |
US11883022B2 (en) | 2020-10-02 | 2024-01-30 | Cilag Gmbh International | Shared situational awareness of the device actuator activity to prioritize certain aspects of displayed information |
US20220104694A1 (en) * | 2020-10-02 | 2022-04-07 | Ethicon Llc | Control of a display outside the sterile field from a device within the sterile field |
US11963683B2 (en) | 2020-10-02 | 2024-04-23 | Cilag Gmbh International | Method for operating tiered operation modes in a surgical system |
US11877897B2 (en) | 2020-10-02 | 2024-01-23 | Cilag Gmbh International | Situational awareness of instruments location and individualization of users to control displays |
US11783938B2 (en) * | 2021-07-22 | 2023-10-10 | Cilag Gmbh International | Integrated hub systems control interfaces and connections |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012526328A (ja) * | 2009-05-04 | 2012-10-25 | オブロング・インダストリーズ・インコーポレーテッド | 三空間入力の検出、表現、および解釈:自由空間、近接、および表面接触モードを組み込むジェスチャ連続体 |
US20140085185A1 (en) * | 2011-03-24 | 2014-03-27 | Beth Israel Deaconess Medical Center | Medical image viewing and manipulation contactless gesture-responsive system and method |
US20150084866A1 (en) * | 2012-06-30 | 2015-03-26 | Fred Thomas | Virtual hand based on combined data |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7370983B2 (en) * | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
US8411034B2 (en) * | 2009-03-12 | 2013-04-02 | Marc Boillot | Sterile networked interface for medical systems |
US8681098B2 (en) * | 2008-04-24 | 2014-03-25 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US8578282B2 (en) * | 2006-03-15 | 2013-11-05 | Navisense | Visual toolkit for a virtual user interface |
US8390438B2 (en) * | 2008-09-24 | 2013-03-05 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system including haptic feedback |
US9439736B2 (en) * | 2009-07-22 | 2016-09-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for controlling a remote medical device guidance system in three-dimensions using gestures |
US9274699B2 (en) * | 2009-09-03 | 2016-03-01 | Obscura Digital | User interface for a large scale multi-user, multi-touch system |
US8878779B2 (en) * | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
US9146674B2 (en) * | 2010-11-23 | 2015-09-29 | Sectra Ab | GUI controls with movable touch-control objects for alternate interactions |
BR112014015394A8 (pt) * | 2011-12-23 | 2017-07-04 | Koninklijke Philips Nv | método de exibição de dados de ultrassom tridimensional (3d), sistema de obtenção de imagem médica e método de realização do procedimento médico pré intervencional ou pré cirúrgico dentro de um campo estéril |
US20160103500A1 (en) * | 2013-05-21 | 2016-04-14 | Stanley Innovation, Inc. | System and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology |
US9020194B2 (en) * | 2013-06-14 | 2015-04-28 | Qualcomm Incorporated | Systems and methods for performing a device action based on a detected gesture |
US20160228633A1 (en) * | 2013-09-27 | 2016-08-11 | Smiths Medical Asd, Inc. | Infusion pump with touchless user interface and related methods |
US20150253860A1 (en) | 2014-03-07 | 2015-09-10 | Fresenius Medical Care Holdings, Inc. | E-field sensing of non-contact gesture input for controlling a medical device |
WO2015188011A1 (en) * | 2014-06-04 | 2015-12-10 | Quantum Interface, Llc. | Dynamic environment for object and attribute display and interaction |
US9839490B2 (en) * | 2015-01-28 | 2017-12-12 | Terarecon, Inc. | Touchless advanced image processing and visualization |
US10755128B2 (en) * | 2018-12-18 | 2020-08-25 | Slyce Acquisition Inc. | Scene and user-input context aided visual search |
-
2016
- 2016-10-17 US US15/775,639 patent/US11256334B2/en active Active
- 2016-10-17 WO PCT/IB2016/056228 patent/WO2017089910A1/en active Application Filing
- 2016-10-17 CA CA3002918A patent/CA3002918C/en active Active
- 2016-10-17 EP EP16868102.1A patent/EP3380031A4/en active Pending
- 2016-10-17 JP JP2018546777A patent/JP6994466B2/ja active Active
-
2022
- 2022-01-20 US US17/580,356 patent/US11662830B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012526328A (ja) * | 2009-05-04 | 2012-10-25 | オブロング・インダストリーズ・インコーポレーテッド | 三空間入力の検出、表現、および解釈:自由空間、近接、および表面接触モードを組み込むジェスチャ連続体 |
US20140085185A1 (en) * | 2011-03-24 | 2014-03-27 | Beth Israel Deaconess Medical Center | Medical image viewing and manipulation contactless gesture-responsive system and method |
US20150084866A1 (en) * | 2012-06-30 | 2015-03-26 | Fred Thomas | Virtual hand based on combined data |
Non-Patent Citations (1)
Title |
---|
TAN,JUSTIN H. ET AL.: "Infomatics in Radiology Developing a Touchless User Interface for Intraoperative Image Control durin", RADIOGRAPHICS, vol. Vol.33 No.2 , JPN6020036845, April 2013 (2013-04-01), pages 61 - 70, ISSN: 0004508191 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022113811A1 (ja) * | 2020-11-30 | 2022-06-02 | ソニーグループ株式会社 | 手術システム、手術用制御装置、制御方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11256334B2 (en) | 2022-02-22 |
JP6994466B2 (ja) | 2022-01-14 |
EP3380031A4 (en) | 2018-11-21 |
EP3380031A1 (en) | 2018-10-03 |
US11662830B2 (en) | 2023-05-30 |
US20180329504A1 (en) | 2018-11-15 |
CA3002918C (en) | 2019-01-08 |
US20220147150A1 (en) | 2022-05-12 |
CA3002918A1 (en) | 2017-06-01 |
WO2017089910A1 (en) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11662830B2 (en) | Method and system for interacting with medical information | |
US20230320799A1 (en) | User-interface control using master controller | |
US9815206B2 (en) | Surgical system user interface using cooperatively-controlled robot | |
US10403402B2 (en) | Methods and systems for accessing and manipulating images comprising medically relevant information with 3D gestures | |
US10064693B2 (en) | Controlling a surgical navigation system | |
US20210030491A1 (en) | Interaction between user-interface and master controller | |
US20100013764A1 (en) | Devices for Controlling Computers and Devices | |
JP2021528786A (ja) | 視線に基づく拡張現実環境のためのインターフェース | |
Hatscher et al. | GazeTap: towards hands-free interaction in the operating room | |
US20140085185A1 (en) | Medical image viewing and manipulation contactless gesture-responsive system and method | |
TW201946592A (zh) | 腳控制之游標 | |
US20160180046A1 (en) | Device for intermediate-free centralised control of remote medical apparatuses, with or without contact | |
JP6488153B2 (ja) | カーソル制御方法、カーソル制御プログラム、スクロール制御方法、スクロール制御プログラム、カーソル表示システム、及び医療機器 | |
US20160004315A1 (en) | System and method of touch-free operation of a picture archiving and communication system | |
KR20170001630A (ko) | 살균 의료 환경에서의 비접촉 디바이스 제어 시스템 | |
JP2014529135A (ja) | 医療機器用の非接触式遠隔制御システム及び方法 | |
US20160004318A1 (en) | System and method of touch-free operation of a picture archiving and communication system | |
Sa-nguannarm et al. | Hand movement recognition by using a touchless sensor for controlling images in operating room | |
Hsieh | Touchless gesture recognition system for imaging controls in sterile environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20180724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191017 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210322 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210917 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210917 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211021 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6994466 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |