JP7059178B2 - データ表示装置 - Google Patents

データ表示装置 Download PDF

Info

Publication number
JP7059178B2
JP7059178B2 JP2018516184A JP2018516184A JP7059178B2 JP 7059178 B2 JP7059178 B2 JP 7059178B2 JP 2018516184 A JP2018516184 A JP 2018516184A JP 2018516184 A JP2018516184 A JP 2018516184A JP 7059178 B2 JP7059178 B2 JP 7059178B2
Authority
JP
Japan
Prior art keywords
image data
user interface
unit
user
graphical user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018516184A
Other languages
English (en)
Other versions
JP7059178B6 (ja
JP2018534667A (ja
Inventor
ロナルドゥス ペトルス ヨハネス ヘルマンス
アドリエ バセルマンス
イヴォ ドン スタイフザンド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018534667A publication Critical patent/JP2018534667A/ja
Priority to JP2022016929A priority Critical patent/JP2022078047A/ja
Application granted granted Critical
Publication of JP7059178B2 publication Critical patent/JP7059178B2/ja
Publication of JP7059178B6 publication Critical patent/JP7059178B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/452Remote windowing, e.g. X-Window System, desktop virtualisation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、データ表示装置及びデータ表示方法だけでなく、コンピュータプログラム要素及びコンピュータ可読媒体にも関する。
幾つかの医学的応用において、例えば介入X線システムといった医用撮像システムを伴う医学的応用において、ユーザが、タッチデバイスといった入力デバイスのグラフィカルユーザインターフェース(GUI)を、表示デバイスの異なる画面を見ながら操作する必要がある。しかし、ユーザが入力デバイスのGUIを介して特定の機能を起動させる必要がある場合、ユーザは表示デバイスの画面から視線を離して、入力デバイスのGUIの所要機能に対応するボタンをアクティブにし、行為の結果を判断するために表示デバイスに視線を戻す必要がある。同様の問題は、ユーザが、テレビ受像機を見ながらテレビ受像機のリモコンを使用する場合といった非医学的応用における入力ユニットとインタラクトする場合にも起きる。
米国特許出願公開第2012/0182244A1号は、ノート型コンピュータ又はタブレット型コンピュータといった遠隔デバイスを介して専門家による医療処置で遠隔支援を提供するシステム及び方法に関する。医療デバイスによって生成されたビデオ出力及びカメラによって捕捉されたビデオが、ネットワークを介して送信され、遠隔デバイス上でレンダリングされる。
しかし、ユーザは依然として画像及び他のデータがどのように表示されているのかに関する必要なフィードバックが提供されない。
特に介入X線システムといった医用撮像システム向けに改良されたデータ表示技術があることが有利である。
本発明の課題は、独立請求項の主題によって達成され、更なる実施形態は、従属請求項に組み込まれる。なお、以下に説明される本発明の態様は、データ表示装置及びデータ表示方法だけでなく、コンピュータプログラム要素及びコンピュータ可読媒体にも当てはまる。
第1の態様によれば、
少なくとも1つの表示ユニットと、
ユーザ入力領域のグラフィカルユーザインターフェースを表す入力ユニット画像データを表示する表示画面を含む少なくとも1つのタッチ入力ユニットと、
処理ユニットと、
を含み、
グラフィカルユーザインターフェースは、複数のゾーンを含み、
処理ユニットは、少なくとも1つの表示ユニットに、第1の画像データを表示し、
処理ユニットは、ユーザインターフェースのユーザインタラクション部として、複数のゾーンのうちのユーザがインタラクトしているゾーンを決定し、
処理ユニットは、少なくとも1つの表示ユニットに、第1の画像データを、グラフィカルユーザインターフェースのユーザインタラクション部を表す第2の画像データと同時に表示するデータ表示装置が提供される。
つまり、ユーザは、タッチ入力デバイスとインタラクトし、別の表示デバイスにて、ユーザがインタラクトしているタッチデバイスユーザインターフェースの領域に関する視覚的フィードバックが提供される。言い換えれば、ユーザは、ユーザがインタラクトしている入力ユニット(例えばタッチデバイス)のグラフィカルユーザインターフェースの一部分の直接的なフィードバックを、表示ユニット(例えばビューイングデバイス)にて得られる。
このように、ユーザは、入力ユニットとインタラクトすることに関して、表示ユニットから目を離す必要がない。つまり、一実施例では、ユーザがインタラクトしているタッチデバイスユーザインターフェースの領域に関するフィードバックがユーザに提供されることで、ブラインドタッチ画面制御が提供される。言い換えれば、インタラクションフィードバックのために別の表示ユニットを見ながら、タッチといった入力ユニット上でインタラクトする際の向上されたインタラクションフィードバックが提供される。
好適には、入力ユニットのグラフィカルユーザインターフェース(GUI)の単一のゾーン又はパネルのみが、少なくとも1つの表示ユニットに提示される。これにより、タッチデバイスGUIを表すために必要となる少なくとも1つの表示ユニットの画面領域量は限られる。好適には、第2の画像データは、アクティブゾーン、つまり、ユーザがインタラクトしているゾーンについてグラフィカルユーザインターフェースを表す画像データに相当する。したがって、GUIのアクティブゾーンの内容がメインディスプレイでミラーリングされる。
有利には、少なくとも1つの表示ユニットの画面の限られた量の空間しか取らず、取られる空間は、タッチデバイス上でユーザがしていることに直接的に関連する。つまり、少なくとも1つの表示ユニットの空間は、効率的且つ効果的に使用される。言い換えれば、タッチデバイスのユーザ入力領域のユーザインタラクション部を表すタッチデバイスの第2の画像データがビューイングデバイスに表示されるので、タッチデバイスのユーザインターフェースのミラーリング又は当該ユーザインターフェースの概略的表現の表示に特化されたビューイングデバイスの画面領域の量は限られる。
つまり、タッチ画面といった入力ユニットが、少なくとも1つの表示ユニットに既に提示されている画像を表示する場合、当該画像は表示デバイスでは重複されない。
一実施例では、第1のデータは、更なるグラフィカルユーザインターフェースを含み、第2の画像データは、タッチ画面グラフィカルユーザインターフェースの一部を含み、第2の画像データは、更なるグラフィカルユーザインターフェースの一部の隣にレンダリングされる。
或いは、第2の画像データは、更なるグラフィカルユーザインターフェースの一部とブレンドされる。更なる代替実施形態では、第2の画像データは、第1のグラフィカルユーザインターフェースの一部内でレンダリングされる。
一実施例では、処理ユニットは、ユーザがグラフィカルユーザインターフェースの複数のゾーンのうちの少なくとも1つのゾーンの上方で手を動かす場合に、ユーザインタラクション部を決定する。
或いは又は更に、処理ユニットは、ユーザがグラフィカルユーザインターフェースの複数のゾーンのうちの少なくとも1つのゾーンにタッチする場合に、ユーザインタラクション部を決定する。
或いは又は更に、処理ユニットは、ポインタがグラフィカルユーザインターフェースの複数のゾーンのうちの少なくとも1つのゾーン上を動く場合に、ユーザインタラクション部を決定する。
このように、例えばタッチデバイスに表示される画像に示される通りのカーソルの位置が、今度は、タッチデバイスに表示される画像の一部を表示する別のビューイングデバイス上に、当該カーソル位置と共に提示される。つまり、ユーザは、別のビューイング画面を見ながら、タッチ画面上のカーソルの場所を把握することができる。言い換えれば、入力ユニット(例えばタッチデバイス)のユーザインターフェース又はグラフィカルユーザインターフェースが、少なくとも1つの表示ユニット(例えばビューイングデバイス)に表示される内容と異なる内容を表示する場合、ユーザがタッチデバイスを見て、複雑な画像背景の中でカーソルの位置を特定しようとする場合、タッチ画面のユーザインターフェース上のポインティングデバイスの場所は不明確である。しかし、例えばカーソル位置である局所的ユーザインタラクション部を、ビューイングデバイスに提示される第2の画像データの一部として提供することによって、ユーザは、タッチデバイス上のカーソルの場所をよりうまく把握することができ、また、これをビューイングデバイスから目を離すことなく行える。
一実施例では、少なくとも1つの表示ユニットでの第2の画像データの表示は、ユーザからの入力に応じて有効又は無効にされる。
第2の態様によれば、本発明によるデータ表示装置を含む介入X線システムといった医用撮像システムが提供される。表示ユニットは、好適には、オーバヘッドモニタ、例えば診療室モニタとして提供され、タッチ入力ユニットは、好適には、患者台の隣に配置される制御デバイスであるテーブルサイドモジュール(TSM)として提供される。
第3の態様によれば、
a)少なくとも1つの表示ユニットに、第1の画像データを表示するステップと、
b)グラフィカルユーザインターフェースのユーザインタラクション部として、グラフィカルユーザインターフェースの複数のゾーンのうちのユーザがインタラクトしているゾーンを決定するステップと、
c)少なくとも1つの表示ユニットに、第1のデータの一部を、第2の画像データと同時に表示するステップであって、第1の画像データを、グラフィカルユーザインターフェースのユーザインタラクション部を表す第2の画像データと同時に表示するステップとを含むデータ表示方法が提供される。
更なる態様によれば、処理ユニットによって実行されると、上記方法ステップを行うように適応されている、上記装置を制御するためのコンピュータプログラム要素が提供される。
更なる態様によれば、上記コンピュータ要素が格納されたコンピュータ可読媒体が提供される。
有利には、上記態様の何れかによって提供されるメリットは、他の態様のすべてに同等に当てはまり、また、その反対も同様である。
上記態様及び実施例は、以下に説明される実施形態から明らかとなり、また、当該実施形態を参照して説明される。
次の図面を参照して、例示的な実施形態について以下に説明する。
図1は、データ表示方法の一実施例を示す。 図2は、例示的なデータ表示装置の概略的な組立てを示す。 図3は、1つの入力ユニット及び2つの表示ユニットの一実施例を示す。 図4は、例示的なデータ表示装置によって表示されるデータの一実施例を示す。 図5は、概略形式で示される図4に示されるのと同じデータを示す。 図6は、例示的なデータ表示装置によって表示されるデータの一実施例を示す。 図7は、概略形式で示される図6に示されるのと同じデータを示す。 図8は、例示的なワークフローと共に例示的なデータ表示装置の技術的実現の一実施例を示す。
図1は、データ表示方法10の基本ステップを示す。方法10は次のステップを含む。
第1の表示ステップ20(ステップa)とも呼ぶ)において、第1のデータが、少なくとも1つの表示ユニットに表示される。
決定ステップ30(ステップb)とも呼ぶ)において、少なくとも1つの入力ユニットのユーザ入力領域のユーザインタラクション部が決定される。
第2の表示ステップ40(ステップc)とも呼ぶ)において、第1のデータの一部が、少なくとも1つの表示ユニットに第2の画像データと同時に表示される。第2の画像データは、少なくとも1つの入力ユニットのユーザ入力領域のユーザインタラクション部を表す。
一実施例では、第1のデータは画像データを含む。一実施例では、第1のデータはテキストデータを含む。一実施例では、第1のデータは信号を含む。一実施例では、第1のデータはこれらのデータの任意の組み合わせを含む。例えば一実施例では、第1のデータは画像及びテキストデータを含む。
図2は、データ表示装置50を示す。装置50は、少なくとも1つの表示ユニット60と、ユーザ入力領域を含む少なくとも1つの入力ユニット70と、処理ユニット80とを含む。処理ユニット80は、少なくとも1つの表示ユニット60に第1の画像データを表示する。処理ユニット80は更に、少なくとも1つの入力ユニット70のユーザ入力領域のユーザインタラクション部を決定する。処理ユニット80は更に、少なくとも1つの表示ユニット60に、第1の画像データの一部を第2の画像データと同時に表示する。第2の画像データは、少なくとも1つの入力ユニット70のユーザ入力領域のユーザインタラクション部を表す。
一実施例では、少なくとも1つの表示ユニットは、医用画像データを表示するモニタ、好適には、病院の診察室内に配置されるオーバヘッドモニタを含む。一実施例では、第1のデータは、介入X線データを含む。一実施例では、第1のデータは、CTX線画像データ、X線蛍光透視像データ、X線断層撮影画像データ、磁気共鳴(MR)画像データ、超音波画像データ又はこれらの画像データの任意の組み合わせを含む。
一実施例では、少なくとも1つのタッチ入力ユニットは、スマートフォン又はタブレットPCといったユーザがタッチ可能である画面を有するデバイス、又は、好適な実施形態では、病院の診察室内の患者台に隣接するテーブルサイドモジュールを含む。ユーザは、好適にはタッチデバイスのグラフィカルユーザインターフェースを表示するオーバヘッドディスプレイを見ながら、タッチ入力デバイスとインタラクトする。例えばタブレットユーザインターフェース又はグラフィカルユーザインターフェースが画面上に直接レンダリングされる。
一実施例では、少なくとも1つの入力ユニットは、それ自身のグラフィカルユーザインターフェースを有するタッチデバイスである。例えばタッチデバイスは、別箇の表示ユニットに提示される医用画像に関する別箇の処理機能、取得機能、医療デバイス設定機能及び測定機能を表示する。処理ユニットは、測定機能に関する領域といったユーザがインタラクトしているタッチデバイスの領域を決定し、タッチパッドに示される通りの測定機能を、医用画像データと共に、少なくとも1つの表示ユニットの別個の又は統合された領域として提示することができる。しかし、入力ユニットは、表示画面を有してもよいが、これは、入力ユニットのユーザ入力領域のユーザインタラクション部を表す第2の画像データが入力ユニットに提示されるミラーリング画像データであることを必ずしも意味するわけではない。「表す(表現)」とは、本明細書では、入力ユニットが画像を表示していても、表示ユニットは、当該画像の概略的表現を表示する場合があることを意味する。しかし、「表す(表現)」とは更に、表示ユニットが、入力ユニットの表示画面に表示されているものの少なくとも一部をミラーリングする場合があることも意味する。
一実施例では、少なくとも1つの入力ユニットは、ユーザが手で又はポインタ若しくはスタイラスで入力ユニットをタッチする必要なく、ユーザの手又はポインタ若しくはスタイラスの近接を検出するデバイスを含む。例えば少なくとも1つの入力デバイスは、マイクロ波又はレーザ検知を利用して、入力ユニットのユーザ入力領域に対するユーザの手の近接及び場所を決定して、ユーザインタラクション部が決定される。一実施形態では、少なくとも1つの入力ユニットは、ユーザの手を見ているカメラを使用して、入力ユニットに対するユーザの手の近接及び場所を検出する。一実施例では、少なくとも1つの入力ユニットは、ユーザの手の磁場外乱検知を介して、入力ユニットに対するユーザの手の近接及び場所を検出する。つまり、少なくとも1つの入力ユニットは、タッチデバイス及び/又は近接デバイスであってよい。
つまり、一実施例では、複数の表示ユニット及び/又は複数の入力ユニットがあってよい。例えば複数の表示ユニットに関して、制御室内に1つの表示ユニットと診察室内に1つの表示ユニットとがあってよい。例えば複数の入力ユニットに関して、(患者の近くにいる)医師用の入力ユニット(例えばテーブルサイドモジュール)と看護師用の入力ユニットとがあってよい。
一実施例では、第2の画像データは、ユーザがインタラクトしているグラフィカルユーザインターフェースの少なくともアクティブ部分を表す画像データの直接的な再現である。例えば入力ユニットは、医用画像を表示する第1のゾーン又は領域と、当該医用画像の制御又は処理に関するボタンを表示する第2のゾーン又は領域とがある入力ユニット自身の画面を有するタッチデバイスである。
少なくとも1つの表示ユニットは、少なくとも1つの入力ユニットに表示される画像の拡大図を表示する診察室モニタであってよい。ユーザが、ボタンの場所で入力ユニットとインタラクトすると、入力ユニットに提示されている通りのボタンの画像が、少なくとも1つの表示ユニットにてミラーリングされる。
一実施例では、ユーザの指が入力ユニット(例えばタッチデバイス)に近づくにつれて、(タッチデバイスにまだタッチしていなくてもよい)指の場所を中心にしてタッチデバイスに提示されている画像の一部が、少なくとも1つの表示ユニット(例えばビューイングデバイス)に提示される。このように、ユーザは、タッチデバイスの画面の中心右側に指を動かす。タッチデバイスには、画面の中心に提示されている画像がある。当該画像は、ビューイングデバイスでは拡大して表示される。幾つかの機能ボタンが、タッチ画面の右端に提示される。この場合、ユーザの指がタッチ画面に近づくにつれて、ユーザには、ビューイングデバイスにて、ボタンの一部が表示されるタッチデバイスからの画像の一部が提示される。ユーザが、タッチ画面で、指を右に動かすと、画像ビューイングデバイスの画像は、タッチデバイスで提示される画像はより少なく表示し、タッチデバイスのボタンはより多く表示する。最終的に、ユーザには、ビューイングデバイスにて、機能ボタンといった必要に応じて提示されるタッチデバイスに関する情報が提示され、押したいと思うタッチデバイスのボタンをユーザが押すことが可能にされる。このようにして、ユーザは、少なくとも1つの表示ユニットから視線を動かす必要なく、別箇の入力ユニットとインタラクトすることによって、少なくとも1つの表示ユニットで提示される画像とインタラクトすることができる。
一実施例によれば、図2に示されるように、少なくとも1つの入力ユニット70は、入力ユニット画像データを表示する表示画面90を含む。少なくとも1つの入力ユニット70のユーザ入力領域は、表示画面に表示される入力ユニット画像データの少なくとも一部を含む。第2の画像データは、入力ユニット画像データの少なくとも一部を含む。
一実施例では、表示画面に表示される入力ユニット画像データの少なくとも一部を含む少なくとも1つの入力ユニットのユーザ入力領域とは、少なくとも1つの入力ユニットのユーザ入力領域が、入力ユニット画像データの少なくとも一部を表示することを意味する。
つまり、一実施例では、入力ユニット(例えばタッチデバイス)のユーザインターフェース又はグラフィカルユーザインターフェースの一部が、少なくとも1つの表示ユニット(例えばビューイングデバイス)にてレンダリングされる。好適には、当該一部はアクティブゾーン、つまり、グラフィカルユーザインターフェースの複数のゾーンのうちのユーザがインタラクトしているゾーンである。
一実施例では、入力ユニット画像データは、介入X線データを含む。一実施例では、入力ユニット画像データは、CTX線画像データ、X線蛍光透視像データ、X線断層撮影画像データ、磁気共鳴(MR)画像データ、超音波画像データ又はこれらの画像データの任意の組み合わせを含む。一実施例では、入力ユニット画像データは、医用画像データの処理及び/若しくは取得、並びに/又は、X線ユニット若しくはMRIユニットといった画像データの取得に関連付けられる機器の制御のためのボタン機能に関する画像を含む。例えば入力ユニット画像データは、取得、X線ユニット制御及び/又は処置台制御、X線ビームコリメーション、処理、ズーム及びスパン、コントラスト及び輝度、減法、測定、画像オーバーレイ、リセット並びにファイルを開くことの任意の組み合わせを含む機能を有するボタンに関する。
一実施例では、少なくとも1つの入力ユニットはタッチ画面を含み、ユーザがタッチしている又はタッチしたグラフィカルユーザインターフェース又はユーザインターフェースの一部が、少なくとも1つの表示ユニットで、概略形式で表される。一実施例では、少なくとも1つの入力ユニットはタッチ画面を含み、ユーザがタッチしている又はタッチしたユーザグラフィカルユーザインターフェース又はユーザインターフェースの一部が、少なくとも1つの表示ユニットでミラーリングされる。つまり、例えばタッチ画面デバイスである入力デバイスに表示される画像のサブセットが、表示デバイスでレンダリングされるか、又は、入力デバイスの当該画像の概略的表現が、表示デバイスに提示される。
一実施例では、少なくとも1つの入力ユニットは、画面を有する近接デバイスを含み、ユーザが近接している又は近接していたグラフィカルユーザインターフェース及びユーザインターフェースの一部が、少なくとも1つの表示ユニットで、概略形式で表現される。一実施例では、少なくとも1つの入力ユニットは、画面を有する近接デバイスを含み、ユーザが近接している又は近接していたグラフィカルユーザインターフェース及びユーザインターフェースの一部が、少なくとも1つの表示ユニットでミラーリングされる。
一実施例によれば、入力ユニット画像データが、第1のデータの少なくとも一部を含む場合、処理ユニットは、少なくとも1つの入力ユニットに表示されている任意の第1のデータを第2の画像データの一部として表示することなく、第2の画像データを表示する。
つまり、タッチ画面といった入力ユニットが、少なくとも1つの表示ユニットで既に提示されている画像を表示している場合、当該画像は、表示デバイスで重複されない。例えば画像Aが表示ユニットで提示され、画像Bが入力ユニットで、画面の右側の幾つかの機能ボタンと共に表示される。ユーザが画面の右上のボタンとインタラクトする場合、これらのボタンは、これらのボタンの付近又は周辺の画像Bの一部と共に、表示ユニットで画像Aと共に表示される。しかし、入力ユニットが画像Bではなく画像Aを表示していた場合、ユーザがインタラクトしている入力ユニットの右上側のボタンのみが、表示ユニットに表示される。このようにすると、冗長データがユーザに提示されることがない。つまり、患者の血管領域の画像が入力ユニット(例えばタッチデバイス)の画面に表示され、同じ倍率の同じ画像が表示ユニット(例えばビューイングデバイス)に表示されている場合、タッチデバイスからの血管画像データは、ビューイングデバイスでは再現されず、画像操作機能を有するボタンに関する画像データといったユーザがインタラクトしている他の画像データのみが再現される。一実施例では、表示ユニットに表示されている画像データと同じであるが、異なる倍率の画像データが少なくとも1つの入力ユニットに表示されている場合、ユーザが入力ユニットの当該領域においてインタラクトしている場合には、当該画像データは表示ユニットで再現されてもよい。
一実施例によれば、ユーザ入力領域は、複数のゾーンを含み、ユーザ入力領域のユーザインタラクション部は少なくとも1つのゾーンを含む。
一実施例では、ユーザがインタラクトしているタッチデバイス又は近接デバイスといった少なくとも1つの入力ユニットのユーザインターフェース又はグラフィカルユーザインターフェースの1つのゾーンのみが、ビューイングデバイスといった少なくとも1つの表示ユニットでレンダリングされる。一実施例では、ゾーンは、入力デバイスのパネルに相当する。
一実施例によれば、第1のデータは第1のグラフィカルユーザインターフェースを含み、第2の画像データは第2のグラフィカルユーザインターフェースの一部を含む。第2のグラフィカルユーザインターフェースの一部は、第1のグラフィカルユーザインターフェースの一部の隣でレンダリングされる。
つまり、ユーザがインタラクトしている入力デバイスの画像の一部が、表示デバイスで、表示デバイスに表示されていたものすべての隣か、又は、表示されていたもののほとんどの隣に表示されることが可能である。つまり、元の画像は、古い画像の隣に新しい画像を提示するためにサイズ変更されるか、又は、新しい画像は、古い画像の片側にオーバーレイされてもよい。
一実施例によれば、第1のデータは第1のグラフィカルユーザインターフェースを含み、第2の画像データは第2のグラフィカルユーザインターフェースの一部を含む。第2のグラフィカルユーザインターフェースの一部は、第1のグラフィカルユーザインターフェースの一部とブレンドされる。
一実施例では、ブレンドの量は、入力デバイスへのポインティングデバイスの距離に依存する。例えばユーザの指が入力ユニット(例えばタッチデバイス)に近づくにつれて、(画面の上方の)指の場所を中心としたタッチデバイスの領域が、少なくとも1つの表示ユニット(例えばビューイングデバイス)に提示される。一実施例では、ユーザの指がタッチデバイスの画面に近づく又は当該画面から遠ざかるにつれて、ビューイングデバイスに提示されるタッチデバイスからの画像は、それに応じて明るくなったり、薄くなったりする。
一実施例によれば、第1のデータは第1のグラフィカルユーザインターフェースを含み、第2の画像データは第2のグラフィカルユーザインターフェースの一部を含む。第2のグラフィカルユーザインターフェースの一部は、第1のグラフィカルユーザインターフェースの一部内でレンダリングされる。
つまり、タッチ画面に提示され、ユーザがインタラクトしているタッチ画面の内容を表す又はミラーリングするものの一部といった第2の画像データの位置決めは、必要に応じて制御又は調整可能である。
一実施例によれば、処理ユニットは、ユーザが少なくとも1つの入力ユニットのユーザ入力領域の少なくとも一部上で手を動かす場合に、ユーザインタラクション部を決定する。
例えば処理ユニットは、ユーザが、入力ユニットのタッチ画面の右側部分上で手を動かしたと決定し、タッチ画面の右側部分に表示されるボタン及び/又は画像データが、少なくとも1つの表示ユニットに、当該少なくとも1つの表示ユニットで既に表示されていた画像データの少なくとも一部分と共に表示される。一実施例では、ユーザは、例えばタッチ/近接デバイスの左側領域及び右側領域である複数のゾーンの上方で手を同時にホバリングさせる。
一実施例によれば、処理ユニットは、ユーザが少なくとも1つの入力ユニットのユーザ入力領域の一部にタッチする場合に、ユーザインタラクション部を決定する。
例えば処理ユニットは、ユーザが入力ユニットのタッチ/近接画面の右側部分をタッチしたと決定する。タッチ画面の右側部分に表示されるボタン及び/又は画像データが、少なくとも1つの表示ユニットに、当該少なくとも1つの表示ユニットで既に表示されていた画像データの少なくとも一部分と共に表示される。
一実施例によれば、処理ユニットは、ポインタが少なくとも1つの入力ユニットのユーザ入力領域の一部分上で動く場合に、ユーザインタラクション部を決定する。
一実施例では、ポインタは、少なくとも1つの入力ユニットのユーザ入力領域に表示されるカーソルを含む。例えば処理ユニットは、ユーザがカーソルを入力ユニットの画面の右側部分上で動かしたと決定する。タッチ画面の右側部分に表示されるボタン及び/又は画像データが、少なくとも1つの表示ユニットに、当該少なくとも1つの表示ユニットで既に表示されていた画像データの少なくとも一部分と共に表示される。
一実施例によれば、処理ユニットは、ユーザインタラクション部の局所的ユーザインタラクション位置を決定し、第2の画像データは、局所的ユーザインタラクション位置を表す画像データを含む。
一実施例では、局所的インタラクション位置は、少なくとも1つの入力ユニットのユーザ入力領域に表示されるカーソルの位置を含む。
一実施例によれば、少なくとも1つの表示ユニットの第2の画像データの表示は、ユーザからの入力に応じて有効又は無効にされる。
このようにして、所要機能は、例えばユーザの手がタッチデバイス又は近接デバイスといった入力ユニットに近づく、タッチする若しくは当該入力ユニットから離れることに基づいて、又は、ユーザからの他の入力に基づいて、必要に応じて有効/無効にされることが可能である。一実施例では、ユーザからの入力は、ボタン又はペダルの押下を含む。一実施例では、ユーザからの入力は、ユーザからの入力の継続時間を含む。つまり、時間的閾値を適用し、ユーザの手が特定の位置にあるといったユーザからの入力が特定の時間を超えると、少なくとも1つの表示ユニットでの第2の画像データの表示が有効にされる。
一実施例では、2つ以上の表示ユニットを有することが可能である。一実施例では、2つ以上の入力ユニットを有することが可能である。一実施例では、2つ以上の表示ユニットと、2つ以上の入力ユニットとを有することが可能である。
図3は、下の方に示され、「タッチ」とラベル付けされているタッチデバイスの形の入力デバイスと、真ん中及び上の方に示され、「デスクトップ」及び「ビューイング」とラベル付けされているデスクトップコンピュータ及びビューイングデバイスの形の2つの表示デバイスとを示す。表示デバイスは、タッチデバイスに表示されているものの拡大された一部を表示している。この構成は、1つ以上のビューイングデバイスがメインの視覚的フィードバックのために使用され、タッチデバイスがインタラクション目的に使用されるアプローチを表す。タッチデバイスは、それ自身のユーザUI又はGUIを有しても(例えば電話機)、UI又はGUIを有さなくてもよい(例えばマウスパッド又はTVのリモコン)。このアプローチでは、タッチデバイス上でインタラクトしている間、ユーザは、タッチデバイスのどの部分上でインタラクトしているのかに関して、ビューイングデバイス上に直接的な視覚的フィードバックがない。例えば図3に示されるように、タッチデバイスがUI又はGUIを有し、当該UI又はGUIが、ビューイングデバイスのUI又はGUIで表示されている内容と異なる内容を表示している場合、カーソルといったポインティングデバイスがタッチデバイスのUI又はGUI上のどこにあるか決定することが不明確又は困難である。現行のアプローチでは、図3に示されるタッチデバイスの画面で表されるように、手のインタラクションによって簡単に見つかる位置でタッチデバイス上に大きいボタンが置かれている。しかし、ユーザは、関心機能(例えばボタン)を探すためにタッチデバイスを見る必要があり、また、ボタンを押した後又はボタン上にカーソルを置きクリックした後、ユーザは、結果を判断するためにビューイングデバイスを再び見なければならない。
本開示のデータ表示装置及び方法は、様々なデバイスの組立てに適用可能である。例えばタッチデバイスのUIを表示するテレビ受像機(ビューイングデバイス)を見ながら、モバイルフォン又はタブレット型コンピュータ(タッチデバイス)上でインタラクトする。例えば遠隔制御UIとして機能するタブレット型コンピュータのUIは、テレビ受像機上で直接レンダリングされることが可能である。X線画像を表示する診察室画面(ビューイングデバイス)を見ながら、X線デバイスのテーブルサイドモジュール(タッチデバイス)上でインタラクトする。
例えば上記装置及び方法は、次の事例に使用することができる。使用事例1が、図4及び図5に示される。図4及び図5には、本開示の例示的なデータ表示装置によって表示されるデータの一実施例が示される。図4及び図5では、UIを有するタッチデバイスの形の入力ユニットが上図に示され、UIを有するビューイングデバイスの形の表示ユニットが下図に示されている。要約するに、ユーザの手が、タッチデバイスのUIの右側上に来ると、タッチデバイスのUIのこの部分、即ち、右パネル又は右ゾーンが、ビューイングデバイスのUI内にブレンドされる。更に、任意選択的に、ビューイングデバイスのUIにおいて、タッチデバイスのUI上でユーザの手がその上でホバリングしているボタン又はタッチされているボタンがハイライトされる。より詳細には、入力ユニットがテーブルサイドモジュール(TSM)であり、表示ユニットが診察室モニタである状況について、ユーザは、テーブルサイトモジュール(TSM)の右パネル内のボタン上で手を動かす。
ボタンを表示するパネルのUIのレンダリングが、診察室モニタに表示され、任意選択的に、どのボタン上でユーザがホバリングしている(又はタッチしている)のかを直接的に表示する。
ユーザは、ボタンを押し、診察室モニタのX線画像への効果をすぐに確認することができる。
ユーザは、テーブルサイドモジュールから手を離すように動かす。
パネルのUIのレンダリングが、診察室モニタから消え、診察室には、クリーンで気が散ることのないUIが残される。
使用事例2が、図6及び図7に示される。図6及び図7には、本開示の例示的なデータ表示装置によって表示されるデータの一実施例が示される。図6及び図7では、UIを有するタッチデバイスの形の入力ユニット(図示せず)は、図4及び図5の入力ユニットについて表示されているような画像を表示している。図6及び図7では、UIを有するビューイングデバイス形の表示ユニットが示される。要約するに、ユーザからの適切な指示があると、タッチデバイスのUI全体が、ビューイングデバイスのUIの上に表示される。別の構成では、ユーザからの指示があると、図4及び図5について上記されたように、タッチデバイスのサブセットが、ビューイングデバイスのUIの上に表示され、ここでも、ユーザによってインタラクトされている特定のボタンが特定される。より詳細には、入力ユニットがテーブルサイドモジュール(TSM)であり、表示ユニットが診察室モニタである状況について、ユーザはペダル/ボタンを押す。
診察室において、TSMアプリケーションのUIが、TSM UIの全体を、診察室モニタ上のX線ビューアアプリケーションの上にレンダリングする。
指の位置が、クリアポインタで示される(図6及び図7を参照。円形の網掛けドットがコントラスト/輝度機能ボタン上に提示されている)。
ユーザは、ペダルを離す。
診察室モニタは、X線ビューアアプリケーションを表示する。
本開示によるデータ表示装置及び方法に関して、複数の実施形態が可能である。
ビューイングデバイスのUI内のタッチデバイスのUIの位置決めは、次の通りに調整することができる。タッチデバイスのUIは、ビューイングデバイスのUIのすぐ隣にレンダリングされることが可能である。タッチデバイスのUIは、ビューイングデバイスのUIとブレンドされることが可能である。ブレンドの量は、タッチデバイスまでのポインティングデバイスの距離に依存する。タッチデバイスのUIは、ビューイングデバイスのUI内にレンダリングされることが可能である。
タッチデバイスのUIの内容は、フィードバックに必要な画面領域量を減少させるために、部分的にビューイングデバイスのUI内であってよい。これは、タッチデバイスUIに対するポインティングデバイスの位置に依存する。例えばポインティングデバイスが左にある場合、左パネルからのボタンのみを表示し、ポインティングデバイスが右にある場合、右パネルからのボタンのみを表示する。図4及び図5を参照されたい。
ビューイングデバイスでのタッチデバイスのUIのレンダリングは、ビューイングデバイスでのタッチデバイスのUIのレンダリングを有効にするハードウェア又はソフトウェアスイッチを介して有効/無効にされる。ビューイングデバイスでのタッチデバイスのUIのレンダリングは、タッチデバイスとのポインティングデバイスの近接又は接触の継続時間によって有効/無効にされる。
一般に、単一のアプリケーションの様々なUIのレンダリングは、コンピュータプログラム(処理)上で論理回路及びUIのレンダリングを実行すること、及び、レンダリングされた結果を、様々なUIデバイスにストリーミングすることによって実現される。
これにより、中央処理におけるインタラクションのハンドリング及びレンダリングされた結果の様々なUIデバイスへの分配が可能にされる。一般に、複数の表示ユニット(例えばビューイングデバイス)及び複数の入力ユニット(例えばタッチデバイス)を有することが可能である。
図8は、例示的なワークフローと共に例示的なデータ表示装置の技術的実現の一実施例を示す。図8に示される物理的ユニット及び図8に示される丸数字1~6を参照して、例示的なワークフローについて以下に説明する。なお、以下の番号付けは、図8の丸数字に関連する。
UIフラグメントPCが、UIフラグメントをレンダリングし、UIフラグメント内の幾つかの論理領域を、ブレンドターゲット又はブレンドソースとして指定する。ブレンドターゲットは、UIフラグメントの別の部分がその中にブレンドされるUIフラグメントの(論理的)部分である。ブレンドソースは、ターゲットにブレンドされるUIフラグメントの(論理的)部分である。レンダリングは、OpenGL、DirectX、GDIといったレンダリングフレームワークを使用して行われるか又はインハウスで開発されてもよい。UI作成は、例えばWPF、QTといった第三者のUIフレームワークを使用して実現されても又はインハウスで開発されてもよい。
コンピュータが、UIフラグメントを、ストリーム(これは、DVIといったビデオストリームであってもUDPを介するネットワークストリームであってもよい)を介して、バックエンド・フォー・フロントエンド(BFF)PCに送信する。そこで、UIコンポジタがUIフラグメントを構成する。
インターフェースを介して、UIコンポジタは、様々なUIのブレンドターゲット領域及びブレンドソース領域に関する情報を有する。このインターフェースは、幾つかの技術、即ち、RPC、API、REST又はHTTP等に基づいていてよい。BFF上で実行されるUIコンポジタプログラムは、これらのインターフェースを使用して、ブレンドターゲットとブレンドソースとを「リンク付け」する。
UIコンポジタは、様々な画面デバイスに関する情報を有する。BFF PC上で実行されるソフトウェアプログラムは、様々なUIフラグメントが構成され、画面に表示されるべき態様を指定する。
BFF上で実行されるインタラクションオーケストレータプログラムによって、画面デバイス上のすべてのユーザインタラクションが確実に捕捉される。
インタラクションオーケストレータは、関連のUIフラグメントPCに入力イベントを戻す。UIフラグメントPCは、インタラクションハンドリングのための所要の論理を適用する。情報は、ネットワークストリームを介して又はシミュレートされたマウス/キーボードイベントを介して送信可能である。
上記実施例では、様々な構成が可能である。例えば2つのUIフラグメントPCではなく、1つ(又は3つ以上)のUIフラグメントPCがあってよく、また、別箇のBFF PCでの実行ではなく、UIコンポジション及びインタラクションオーケストレイションのための論理は、UIフラグメントPCのうちの1つで実行されてよい(即ち、単一PCソリューションが提供可能である)。更に、上記では、PCはコンピュータユニットでも処理ユニットでもよく、UIコンポジタは、例えばUIコンポジタコンピュータプログラムであってよい。
別の例示的な実施形態では、上記実施形態のうちの1つによる方法ステップを実行するように構成されることによって特徴付けられる適切なシステムを制御するためのコンピュータプログラム又はコンピュータプログラム要素が提供される。
したがって、コンピュータプログラム要素は、コンピュータユニットに記憶されていてもよい。当該コンピュータユニットも、一実施形態の一部であってよい。当該コンピュータユニットは、上記方法のステップを行うか又はステップの実行を誘導する。更に、コンピュータユニットは、上記装置のコンポーネントを動作させる。コンピュータユニットは、自動的に動作するか及び/又はユーザの命令を実行する。コンピュータプログラムが、データプロセッサの作業メモリにロードされてよい。したがって、データプロセッサは、上記実施形態のうちの1つによる方法を実行する能力を備えている。
本発明のこの例示的な実施形態は、最初から本発明を使用するコンピュータプログラムと、アップデートによって、既存のプログラムを、本発明を使用するプログラムに変えるコンピュータプログラムとの両方を対象とする。
更に、コンピュータプログラム要素は、上記方法の例示的な実施形態の手順を満たすすべての必要なステップを提供することができる。
本発明の更なる例示的な実施形態によれば、CD-ROMといったコンピュータ可読媒体が提示される。コンピュータ可読媒体に、コンピュータプログラム要素が記憶され、コンピュータプログラム要素は上記セクションに説明されている。
コンピュータプログラムは、他のハードウェアと共に又は他のハードウェアの一部として供給される光学記憶媒体又は固体媒体といった適切な媒体上に記憶される及び/又は分散配置されるが、インターネット又は他の有線若しくは無線通信システムを介した形態といった他の形態で分配されてもよい。
しかし、コンピュータプログラムは、ワールドワイドウェブといったネットワーク上に提示され、当該ネットワークからデータプロセッサの作業メモリにダウンロードされてもよい。本発明の更なる例示的な実施形態によれば、ダウンロード用にコンピュータプログラム要素を利用可能にする媒体が提供され、当該コンピュータプログラム要素は、本発明の上記実施形態のうちの1つによる方法を行うように構成される。
なお、本発明の実施形態は、様々な主題を参照して説明されている。具体的には、方法タイプのクレームを参照して説明される実施形態もあれば、デバイスタイプのクレームを参照して説明される実施形態もある。しかし、当業者であれば、上記及び以下の説明から、特に明記されない限り、1つのタイプの主題に属する特徴の任意の組み合わせに加えて、様々な主題に関連する特徴の任意の組み合わせも、本願によって開示されていると見なされると理解できるであろう。しかし、すべての特徴は、特徴の単なる足し合わせ以上の相乗効果を提供する限り、組み合わされることが可能である。
本発明は、図面及び上記説明において詳細に例示され、説明されたが、当該例示及び説明は、例示的に見なされるべきであり、限定的に見なされるべきではない。本発明は、開示される実施形態に限定されない。開示された実施形態の他の変形態様は、図面、開示内容及び従属請求項の検討から、請求項に係る発明を実施する当業者によって理解され、実施される。
請求項において、「含む」との用語は、他の要素又はステップを排除するものではなく、また、「a」又は「an」との不定冠詞も、複数形を排除するものではない。単一のプロセッサ又は他のユニットが、請求項に引用される幾つかのアイテムの機能を果たしてもよい。特定の手段が相互に異なる従属請求項に記載されることだけで、これらの手段の組み合わせを有利に使用することができないことを示すものではない。請求項における任意の参照符号は、範囲を限定するものと解釈されるべきではない。

Claims (10)

  1. オーバヘッドモニタとして提供される少なくとも1つの表示ユニットと、
    テーブルサイドモジュールとして提供され、複数のゾーンを有するグラフィカルユーザインターフェースを表す入力ユニット画像データを表示する表示画面を有するユーザ入力領域を含む少なくとも1つのタッチ入力ユニットと、
    処理ユニットと、
    を含み、
    前記処理ユニットは、前記グラフィカルユーザインターフェースのユーザインタラクション部を決定し、前記ユーザインタラクション部は、前記複数のゾーンのうちのアクティブゾーンに対応し、前記アクティブゾーンは、前記複数のゾーンのうちのユーザがインタラクトしている単一のゾーンであり、
    前記処理ユニットは、前記少なくとも1つの表示ユニットに、医用画像データを含む第1の画像データを、前記アクティブゾーンのための前記入力ユニット画像データに対応する第2の画像データと同時に表示する、
    データ表示装置を有し、前記入力ユニット画像データは医用画像データと当該医用画像データの処理又は取得に関連する制御のためのボタン機能に関する画像とを含み、前記処理ユニットは、前記入力ユニット画像データが前記第1の画像データの少なくとも一部を含む場合、前記第1の画像データの当該少なくとも一部を前記第2の画像データの一部として表示することなく、前記第2の画像データを表示する、
    医用撮像システム。
  2. 前記第1の画像データは、更なるグラフィカルユーザインターフェースを含み、前記第2の画像データは、前記更なるグラフィカルユーザインターフェースの一部の隣にレンダリングされる、請求項1に記載の医用撮像システム。
  3. 前記第1の画像データは、更なるグラフィカルユーザインターフェースを含み、前記第2の画像データは、前記更なるグラフィカルユーザインターフェースの一部とブレンドされる、請求項1に記載の医用撮像システム。
  4. 前記第1の画像データは、更なるグラフィカルユーザインターフェースを含み、前記第2の画像データは、前記更なるグラフィカルユーザインターフェースの一部内にレンダリングされる、請求項1に記載の医用撮像システム。
  5. 前記処理ユニットは、ユーザが前記グラフィカルユーザインターフェースの前記複数のゾーンのうちの少なくとも1つのゾーンの上方で手を動かす場合に、前記ユーザインタラクション部を決定する、請求項1乃至4の何れか一項に記載の医用撮像システム。
  6. 前記処理ユニットは、ユーザが前記グラフィカルユーザインターフェースの前記複数のゾーンのうちの少なくとも1つのゾーンにタッチする場合に、前記ユーザインタラクション部を決定する、請求項1乃至4の何れか一項に記載の医用撮像システム。
  7. 前記少なくとも1つの表示ユニットでの前記第2の画像データの表示は、前記ユーザからの入力に応じて有効又は無効にされる、請求項1乃至6の何れか一項に記載の医用撮像システム。
  8. a)オーバヘッドモニタとして構成される少なくとも1つの表示ユニットに、医用画像データを含む第1の画像データを表示するステップと、
    b)テーブルサイドモジュールとして構成されるタッチ入力デバイス上のグラフィカルユーザインターフェースのユーザインタラクション部を決定するステップであって、前記ユーザインタラクション部は前記グラフィカルユーザインターフェースの複数のゾーンのうちのアクティブゾーンに対応し、前記アクティブゾーンは、前記複数のゾーンのうちのユーザがインタラクトしている単一のゾーンである、ステップと、
    c)前記少なくとも1つの表示ユニットに、前記第1の画像データを、前記アクティブゾーンのためのタッチ入力デバイス上に表示される入力ユニット画像データに対応する第2の画像と同時に表示するステップと、
    を含み、前記入力ユニット画像データは医用画像データと当該医用画像データの処理又は取得に関連する制御のためのボタン機能に関する画像とを含み、前記入力ユニット画像データが前記第1の画像データの少なくとも一部を含む場合、前記第1の画像データの当該少なくとも一部を前記第2の画像データの一部として表示することなく、前記第2の画像データを表示する、データ表示のための方法。
  9. プロセッサによって実行されると、請求項8に記載の方法を行うように構成されている、請求項1乃至7の何れか一項に記載の医用撮像システムを制御するためのコンピュータプログラム。
  10. 請求項9に記載のコンピュータプログラムが格納された、コンピュータ可読媒体。
JP2018516184A 2015-10-02 2016-09-30 データ表示装置 Active JP7059178B6 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022016929A JP2022078047A (ja) 2015-10-02 2022-02-07 データ表示装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15188101 2015-10-02
EP15188101.8 2015-10-02
PCT/EP2016/073378 WO2017055523A1 (en) 2015-10-02 2016-09-30 Apparatus for displaying data

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022016929A Division JP2022078047A (ja) 2015-10-02 2022-02-07 データ表示装置

Publications (3)

Publication Number Publication Date
JP2018534667A JP2018534667A (ja) 2018-11-22
JP7059178B2 true JP7059178B2 (ja) 2022-04-25
JP7059178B6 JP7059178B6 (ja) 2022-06-02

Family

ID=54293065

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018516184A Active JP7059178B6 (ja) 2015-10-02 2016-09-30 データ表示装置
JP2022016929A Pending JP2022078047A (ja) 2015-10-02 2022-02-07 データ表示装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022016929A Pending JP2022078047A (ja) 2015-10-02 2022-02-07 データ表示装置

Country Status (5)

Country Link
US (2) US10957441B2 (ja)
EP (2) EP3936991A1 (ja)
JP (2) JP7059178B6 (ja)
CN (1) CN108292194A (ja)
WO (1) WO2017055523A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102664B1 (en) * 2014-12-03 2018-10-16 Charles Schwab & Co., Inc. System and method for causing graphical information to be rendered
US11040214B2 (en) 2018-03-01 2021-06-22 West Affum Holdings Corp. Wearable cardioverter defibrillator (WCD) system having main UI that conveys message and peripheral device that amplifies the message
JP7212145B2 (ja) 2018-08-31 2023-01-24 ベンタナ メディカル システムズ, インコーポレイテッド コンテキスト適応型デジタル病理インタフェース
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
US11759110B2 (en) * 2019-11-18 2023-09-19 Koninklijke Philips N.V. Camera view and screen scraping for information extraction from imaging scanner consoles
US20230009306A1 (en) * 2019-12-06 2023-01-12 Flatfrog Laboratories Ab An interaction interface device, system and method for the same
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
USD986262S1 (en) * 2021-07-01 2023-05-16 Olympus Medical Systems Corporation Display screen with graphical user interface

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242383A (ja) 1999-02-19 2000-09-08 Nec Corp 画面表示拡大制御装置
JP2006209381A (ja) 2005-01-27 2006-08-10 Digital Electronics Corp 制御用表示装置、そのプログラムおよび記録媒体
JP2006285598A (ja) 2005-03-31 2006-10-19 Fujitsu Ten Ltd タッチパネル装置、タッチパネル装置の操作支援方法、及びタッチパネル装置の操作支援プログラム
US20070198141A1 (en) 2006-02-21 2007-08-23 Cmc Electronics Inc. Cockpit display system
JP2007233459A (ja) 2006-02-27 2007-09-13 Mitsubishi Electric Corp プログラマブル表示器
US20100295788A1 (en) 2009-05-21 2010-11-25 Microsoft Corporation Method of visualizing an input location
US20110063224A1 (en) 2009-07-22 2011-03-17 Frederic Vexo System and method for remote, virtual on screen input
KR101166895B1 (ko) 2011-01-10 2012-07-18 터치디스플레이 주식회사 차량용 통합조작장치
WO2014112095A1 (ja) 2013-01-18 2014-07-24 三菱電機株式会社 情報表示制御装置
US20140275844A1 (en) 2013-03-15 2014-09-18 Volcano Corporation Universal Patient Interface Module and Associated Devices, Systems, and Methods
US20150009143A1 (en) 2013-07-08 2015-01-08 Funai Electric Co., Ltd. Operating system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541507U (ja) * 1991-11-07 1993-06-08 横河メデイカルシステム株式会社 画像診断装置
JP4429635B2 (ja) * 2003-06-04 2010-03-10 株式会社日立メディコ 医用画像診断装置とその操作情報表示方法
DE102006053261B4 (de) * 2006-11-11 2015-04-16 Visus Technology Transfer Gmbh System zur Wiedergabe medizinischer Bilder
US20080267499A1 (en) * 2007-04-30 2008-10-30 General Electric Company Method and system for automatic detection of objects in an image
WO2010083821A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
JP2011072532A (ja) * 2009-09-30 2011-04-14 Konica Minolta Medical & Graphic Inc 医用画像診断装置、および超音波診断装置
JP2011120785A (ja) * 2009-12-11 2011-06-23 Toshiba Corp 医療用画像診断装置
US9665278B2 (en) * 2010-02-26 2017-05-30 Microsoft Technology Licensing, Llc Assisting input from a keyboard
US8621213B2 (en) * 2010-06-08 2013-12-31 Merge Healthcare, Inc. Remote control of medical devices using instant messaging infrastructure
US20120182244A1 (en) 2010-06-11 2012-07-19 Systemsone, Llc Integrated Multi-Display with Remote Programming and Viewing Capability
JP5741821B2 (ja) * 2011-03-24 2015-07-01 コニカミノルタ株式会社 データ加工送信装置およびデータ加工送信プログラム、方法
JP5808404B2 (ja) * 2011-05-27 2015-11-10 京セラ株式会社 電子機器
JP5823535B2 (ja) * 2011-11-30 2015-11-25 富士フイルム株式会社 医療システム
EP2624653A1 (en) * 2012-01-31 2013-08-07 Research In Motion Limited Mobile wireless communications device with wireless local area network and cellular scheduling and related methods
US20130194188A1 (en) * 2012-01-31 2013-08-01 Research In Motion Limited Apparatus and method of facilitating input at a second electronic device
CN108958685B (zh) * 2012-09-10 2021-11-02 三星电子株式会社 连接移动终端和外部显示器的方法和实现该方法的装置
CN105900161A (zh) * 2013-08-22 2016-08-24 麦卡斯音乐公司 交互式钢琴训练系统
KR20150066132A (ko) * 2013-12-06 2015-06-16 삼성전자주식회사 디스플레이 장치, 리모컨, 디스플레이 시스템, 및 디스플레이 방법
WO2016027959A1 (en) * 2014-08-22 2016-02-25 Samsung Medison Co., Ltd. Method, apparatus, and system for outputting medical image representing object and keyboard image
JP6791617B2 (ja) * 2015-06-26 2020-11-25 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波画像表示装置及びプログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242383A (ja) 1999-02-19 2000-09-08 Nec Corp 画面表示拡大制御装置
JP2006209381A (ja) 2005-01-27 2006-08-10 Digital Electronics Corp 制御用表示装置、そのプログラムおよび記録媒体
JP2006285598A (ja) 2005-03-31 2006-10-19 Fujitsu Ten Ltd タッチパネル装置、タッチパネル装置の操作支援方法、及びタッチパネル装置の操作支援プログラム
US20070198141A1 (en) 2006-02-21 2007-08-23 Cmc Electronics Inc. Cockpit display system
JP2007233459A (ja) 2006-02-27 2007-09-13 Mitsubishi Electric Corp プログラマブル表示器
US20100295788A1 (en) 2009-05-21 2010-11-25 Microsoft Corporation Method of visualizing an input location
US20110063224A1 (en) 2009-07-22 2011-03-17 Frederic Vexo System and method for remote, virtual on screen input
KR101166895B1 (ko) 2011-01-10 2012-07-18 터치디스플레이 주식회사 차량용 통합조작장치
WO2014112095A1 (ja) 2013-01-18 2014-07-24 三菱電機株式会社 情報表示制御装置
US20140275844A1 (en) 2013-03-15 2014-09-18 Volcano Corporation Universal Patient Interface Module and Associated Devices, Systems, and Methods
JP2016515876A (ja) 2013-03-15 2016-06-02 ボルケーノ コーポレイション 汎用患者インタフェースモジュール及び関連装置、システム、及び方法
US20150009143A1 (en) 2013-07-08 2015-01-08 Funai Electric Co., Ltd. Operating system
JP2015014998A (ja) 2013-07-08 2015-01-22 船井電機株式会社 操作システム

Also Published As

Publication number Publication date
JP7059178B6 (ja) 2022-06-02
EP3356923A1 (en) 2018-08-08
US20180275836A1 (en) 2018-09-27
JP2018534667A (ja) 2018-11-22
JP2022078047A (ja) 2022-05-24
US10957441B2 (en) 2021-03-23
EP3936991A1 (en) 2022-01-12
US20210210194A1 (en) 2021-07-08
WO2017055523A1 (en) 2017-04-06
CN108292194A (zh) 2018-07-17

Similar Documents

Publication Publication Date Title
JP7059178B2 (ja) データ表示装置
US10055105B2 (en) Method and system for enabling interaction with a plurality of applications using a single user interface
RU2564538C2 (ru) Способ и система обеспечения взаимодействия со множеством приложений при использовании отдельного интерфейса пользователя
US9342145B2 (en) Cursor control
US20160232646A1 (en) Content sharing with consistent aspect ratios
JP5932831B2 (ja) 没入型環境の管理
NO20092407L (no) Fremgangsmate, prosesseringsinstruksjoner og anordning for endring av en videokonferanse-layout
US9377925B2 (en) GUI window with portal region for interacting with hidden interface elements
JP5582755B2 (ja) 医用画像管理装置、及び医用画像表示装置
US20170229102A1 (en) Techniques for descriptor overlay superimposed on an asset
JP5935216B2 (ja) 医療情報表示装置および医療情報表示プログラム
CA2914351A1 (en) A method of establishing and managing messaging sessions based on user positions in a collaboration space and a collaboration system employing same
US20170228137A1 (en) Local zooming of a workspace asset in a digital collaboration environment
US9086777B2 (en) Smart Display
JP2015208602A (ja) 画像表示装置及び画像表示方法
CN108463800B (zh) 内容共享协议
JP2010187758A (ja) 医用画像表示装置、医用画像表示方法、及びプログラム
JP2016158828A (ja) 医用画像処理装置、方法、及びプログラム
KR20130135800A (ko) 의료기기 및 이를 이용한 영상표시방법
JP2008090101A (ja) 情報処理装置、その画像表示制御方法、及びその画像表示制御プログラム
Harz et al. A novel workflow-centric breast MRI reading prototype utilizing multitouch gestures
JP5527665B2 (ja) 表示制御装置、表示制御システム、表示制御方法及び表示制御プログラム
CN116075277A (zh) 控制混合现实应用中的2d屏幕接口应用
KR20170140796A (ko) 의료기기 및 이를 이용한 영상표시방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201102

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220216

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R150 Certificate of patent or registration of utility model

Ref document number: 7059178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150