WO2014097615A1 - タッチパネルを有するコンピュータ、その作動方法、及びプログラム - Google Patents
タッチパネルを有するコンピュータ、その作動方法、及びプログラム Download PDFInfo
- Publication number
- WO2014097615A1 WO2014097615A1 PCT/JP2013/007400 JP2013007400W WO2014097615A1 WO 2014097615 A1 WO2014097615 A1 WO 2014097615A1 JP 2013007400 W JP2013007400 W JP 2013007400W WO 2014097615 A1 WO2014097615 A1 WO 2014097615A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- touch panel
- display
- image
- images
- touch
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/08—Biomedical applications
Definitions
- the present invention relates to a computer having a touch panel that can display a plurality of images side by side on a touch panel and perform observation while changing display parameters, an operating method thereof, and a program.
- the display parameters of the plurality of images are linked in response to detection of an input for changing the display parameter for any one of the images.
- it is necessary to perform observation while controlling the display parameters while switching between the interlocking mode to be changed and the non-interlocking mode in which the display parameter is changed only for one image for which the change instruction has been received. is there.
- a button for accepting an instruction to switch between interlocking / non-interlocking is displayed outside the area where the image to be observed is displayed on the screen, and the user pressing the button It is generally considered to switch between interlocking / non-interlocking each time a mouse operation is detected.
- Patent Document 1 when two dimensional images are displayed on a screen for comparative observation, an observation angle and an enlargement ratio with respect to one image when the user releases the SHIFT key of the keyboard.
- the display parameters of both images are changed synchronously, and the display parameter is changed for one image while pressing the SHIFT key of the keyboard. It has been proposed that the display parameter is changed only for one of the images when the operation is performed.
- the present invention can easily switch between interlocking / non-interlocking of changing display parameters with an intuitive operation when observing while displaying a plurality of images side by side on a touch panel and changing display parameters. It is an object of the present invention to provide a computer having a touch panel that can improve work efficiency, an operating method thereof, and a program.
- the operating method of the present invention is a method of operating a computer having a touch panel in response to an operation on the touch panel by a user, using a plurality of images on the touch panel using display parameters set in advance for each image.
- a display step, and when a touch gesture associated with a change in display parameter is performed on any one of a plurality of images on the touch panel, the display area when the touch gesture is performed A step of changing display parameters in accordance with the touch gesture for all other images except for an image that is in a state where some of the image is pressed (first operation method) ).
- changing the display parameter in accordance with the touch gesture means that the image with the touch gesture (hereinafter also referred to as “operation image”) is displayed with a change amount determined by the touch gesture.
- operation image the image with the touch gesture
- the display parameters are changed by the same change amount as that of the operation image, or for example, one tomographic image from each of a plurality of cross-sectional image groups.
- the changed image is obtained based on the correspondence relationship. This means that the display parameters are changed so that an image corresponding to the changed operation image is obtained.
- the touch gesture does not include an operation of pressing somewhere in the image display area, and an operation for pressing the touch gesture and somewhere in the display area for one image. Shall not be performed at the same time.
- the operating method of the present invention is a method of operating a computer having a touch panel in response to an operation on the touch panel by a user, and uses a plurality of images on the touch panel and display parameters set in advance for each image. And when the touch gesture associated with the change of the display parameter is performed on any one of the plurality of images on the touch panel, the image on which the touch gesture is performed and Including a step of changing a display parameter corresponding to the touch gesture only for an image in which a part of the display area is pressed when the touch gesture is performed. (Second operating method).
- the first and second operation programs of the present invention cause a computer having a touch panel to execute the first and second operation methods, respectively.
- the computer having the first and second touch panels according to the present invention is characterized by including an image display processing unit that implements the first and second operating methods and a parameter change processing unit, respectively. .
- the touch gesture may be any one of drag, flick, pinch in, pinch out, and double tap operations.
- the display parameters may be display magnification (magnification ratio), display center position (position on the image at the center of the display area), display angle (image orientation), window level, and window width.
- display magnification ratio magnification ratio
- display center position position on the image at the center of the display area
- display angle image orientation
- window level window width
- window width window width
- the position of a cross section represented by each cross-sectional image when displaying while switching the cross-sectional image, the position of the cross-section can be used as a display parameter.
- a pseudo three-dimensional image such as volume rendering or surface rendering is generated and displayed based on the volume data
- the viewing direction of the three-dimensional region represented by the volume data can be used as a display parameter.
- a plurality of images are displayed on the touch panel using display parameters set in advance for each image, and a plurality of images are displayed on the touch panel.
- a touch gesture associated with a change in display parameter is performed on one of the images, some part of the display area is pressed when the touch gesture is performed.
- the display parameters are changed according to the touch gesture for all other images except the displayed image, so that the user can display a plurality of images side by side on the touch panel and change the display parameters.
- the computer having the second touch panel of the present invention, the operating method thereof, and the program, a step of displaying a plurality of images on the touch panel using display parameters set in advance for the respective images,
- a touch gesture associated with a change in display parameter is performed on one of a plurality of images
- the image on which the touch gesture is performed and the display when the touch gesture is performed The display parameters are changed according to the touch gesture only for images that are in a state where some part of the area is pressed, so the user can display multiple images side by side on the touch panel and display them.
- linked display parameters change between images It is possible that the non-cooperation can be easily switched in the intuitive operation. Thereby, working efficiency can be improved.
- FIG. 1 shows schematic structure of the touchscreen computer in one Embodiment of this invention.
- the figure which shows an example of the processing which changes a display parameter under setting of interlocking mode The figure which shows an example of the processing which changes a display parameter under setting of interlocking mode
- the figure which shows an example of the processing which changes a display parameter under setting of interlocking mode Figure showing an example of processing to change display parameters under non-linked mode setting
- a computer having a touch panel (hereinafter referred to as “touch panel computer”) is obtained by installing the operating program of the present invention in a tabbed computer.
- This operation program is stored and distributed in a recording medium such as an SD card, and is installed in a computer having a touch panel from the recording medium.
- a recording medium such as an SD card
- it is stored in a storage of a server computer connected to a network or a network storage in a state accessible from the outside, and is downloaded and installed on a tablet computer used by a doctor upon request.
- FIG. 1 is a diagram showing a schematic configuration of a touch panel computer 1 realized by installing an operation program in a tabbed computer.
- the touch panel computer 1 includes a touch panel 10, a processor 20, a storage 30, a memory 40, and the like.
- the touch panel 10 includes a display device (display) 11 and an input device 12 including a touch pad or the like disposed on or in front of the display device.
- the input device 12 recognizes the touch on the touch pad and the position and strength of the touch and reports them to the processor 20.
- the processor 20 can interpret the touch and initiate a task according to the particular touch.
- the storage 30 stores a plurality of image data to be observed. For example, a plurality of volume data photographed at different times of the same patient is stored. At this time, the image data is specified from an imaging device (not shown) or an image storage server via a network when a user input specifying a plurality of images to be observed and instructing display on the observation screen is received. The image data of the obtained image may be acquired and stored.
- the memory 40 stores an operation program.
- This operation program defines image display processing, parameter change processing, and the like as processing to be executed by the processor 20. Then, when the processor 20 executes these processes according to the operation program, the tabred computer functions as an image display processing unit and a parameter change processing unit.
- the touch panel computer 1 receives a user input for specifying a plurality of images to be observed in the selection menu and instructing display on the observation screen, acquires a plurality of image data to be observed from the storage 20, and displays a plurality of images on the touch panel. Are displayed using display parameters set in advance for the respective images. For example, in response to an input instructing display of a plurality of volume data shot at different times of the same patient, a volume rendering image from a preset observation direction is generated from each volume data, and the generated plurality of Display volume rendering images side by side.
- the touch panel computer 1 detects a touch operation by the user on the image on the touch panel, performs a parameter changing process corresponding to the touch operation, and updates the display of the touch panel with the changed parameter.
- the processor 20 is configured to be able to recognize and recognize a plurality of touch gestures, and each touch gesture is associated with a parameter to be changed by the touch gesture, and the correspondence relationship is stored. For example, a correspondence relationship in which an observation direction is associated with a drag operation and a display magnification is associated with a pinch-in / pinch-out operation is stored. This correspondence may be arbitrarily set / corrected by the user.
- the touch panel computer 1 operates in “interlocking mode” in which display parameters of a plurality of images are changed in association with an operation instructing change of display parameters for any one of the images.
- One of the “non-interlocking modes” for changing the display parameter for only one image that has been set is set as the basic mode for parameter change processing, and the display parameter is changed according to the set basic mode.
- the setting of the basic mode may be specified by the user as an initial setting at the start of observation, but either mode may be set as a default setting and arbitrarily changed by the user.
- the touch panel computer 1 When the “interlocking mode” is set as the basic mode for parameter change processing, the touch panel computer 1 basically performs a touch gesture for instructing any one of the images to change a specific display parameter. In response to the change, display parameters are changed according to the touch gesture for all images. However, if there is an image that was held down somewhere in the display area when the touch gesture was performed, the display parameters for that image are maintained and the image is excluded The display parameter is changed according to the touch gesture for all the images.
- FIGS. 2 to 4 show specific examples of processing for changing display parameters under the setting of “interlocking mode”.
- FIGS. 2 and 3 relate to the case where two images are displayed on the touch panel for observation.
- FIG. 2 shows a state in which no other touch operation such as “press” is performed on either of the two left and right images.
- the drag operation instructing to change the observation angle on the right image the observation angle is changed in accordance with the drag operation on both the left and right images.
- the drag operation is performed only on the right image in response to the drag operation instructing to change the observation angle on the right image while the left image is pressed. It is shown that the observation angle was changed according to the above.
- FIG. 4 shows a case where four images are displayed on the touch panel for observation.
- the observation angle is changed with respect to the lower right image while the upper left and lower left images are pressed.
- the observation angle is maintained as it is for the upper left and lower left images, and only the upper right and lower right images are changed according to the drag operation. It has been shown.
- the touch panel computer 1 basically has a touch gesture for instructing change of a specific display parameter for any one image.
- the display parameters corresponding to the touch gesture are changed only for one image on which the touch gesture has been performed.
- the touch gesture is performed, if there is an image in a state where some part of the display area is pressed, the image corresponding to the same touch gesture is further added to the image. Change the display parameters.
- FIG. 5 shows a specific example of the process of changing the display parameter under the setting of “non-interlocking mode”.
- FIG. 5 also shows a case where four images are displayed on the touch panel for observation, and a drag operation for instructing to change the observation angle with respect to the lower right image in a state where the upper left and lower left images are pressed.
- the observation angle was changed according to the drag operation for the upper left and lower left images in addition to the lower right image, and the observation angle was maintained as it was for the upper right image. It is shown.
- a user such as a doctor displays a plurality of images side by side on the touch panel and performs observation while changing display parameters.
- Linkage / non-linkage of display parameter changes can be easily switched by an intuitive operation of directly “pressing” an image to be linked or unlinked. Thereby, working efficiency can be improved.
- a user such as a doctor directly “presses” some images that should be linked or unlinked. Intuitive operation makes it easy to switch between linked / unlinked display parameters for each image.
- Linked display parameter changes for some images and non-linked for other images. Processing such as interlocking can be performed easily and quickly.
- a virtual endoscopic image having the same anatomically the same point of view is generated based on each volume data, displayed on the touch panel, and in response to a drag operation on the touch panel by the user Observation is performed while moving the viewpoint position of each virtual endoscopic image in conjunction with each other.
- the large intestine region may not be extracted properly, and the correspondence may be shifted in the middle. Therefore, when the present invention is applied and there is no deviation in the viewpoint position, the viewpoint positions of both virtual endoscopic images are moved in conjunction with each other by a drag operation on one of the images under the setting of “interlocking mode”.
- the viewpoint position is changed only for the other image by dragging a predetermined amount to the other image while holding one image. Correct the misalignment, and release the hand that was holding one of the images when the misalignment disappeared, and resume the observation by the interlocking display again.
- a plurality of continuous cross-sectional images taken along the body axis obtained by photographing a predetermined range of a subject including the spine may be displayed side by side for observation.
- the center line of the spine is set, and the position on the cross-sectional image that intersects the set center line is the center of the spine. It recognizes as a position, and performs processing so that the certified position becomes the center of the display area.
- a deviation from the actual center of the spine may occur.
- such a deviation is usually approximately the same in the same direction in a part of continuous cross-sectional images.
- the present invention is applied, and under the setting of the “non-interlocking mode”, the other cross-sectional images other than the one cross-sectional image for operation among the partial cross-sectional images that need to be corrected are suppressed.
- the process of changing the display center position only for those images can be easily and quickly corrected by repeating the process several times. .
- the present invention is widely applied to, for example, a desktop computer, a laptop computer, a smartphone, and the like having a touch panel as one of user interfaces. can do.
- the computer according to the present invention may be any computer provided with at least a touch panel, and may further include another user interface such as a mouse or a keyboard in addition to the touch panel.
- the tablet computer is configured to recognize and recognize a plurality of gestures. However, it is sufficient if at least one gesture can be recognized.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】タッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行う際に、画像間で表示パラメータの変更の連動/非連動を直感的な操作で簡便に切り替えられるようにする。 【解決手段】タッチパネルを有するコンピュータにおいて、タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示し、タッチパネル上で複数の画像のうちどれか1つの画像に対して表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、そのタッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像を除く他の全ての画像に対して、そのタッチジェスチャーに応じた表示パラメータの変更を行う。
Description
本発明は、タッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行うことができるタッチパネルを有するコンピュータ、その作動方法、及びプログラムに関するものである。
医療の分野においては、画面上に複数の画像を並べて表示させ、表示倍率などの表示パラメータを変更しながら観察を行うことが広く行われている。このように複数の画像を並べて表示させて観察を行う際には、どれか1つの画像に対し表示パラメータの変更を指示する入力が検出されたことに応じて、複数の画像の表示パラメータを連動して変更させる連動モードと、変更の指示を受けた1つの画像に対してのみ表示パラメータの変更させる非連動モードとを切り替えつつ表示パラメータを制御しながら、観察を行うことが必要となる場合がある。
このとき、連動/非連動の切り替える方法としては、画面上の観察対象の画像が表示される領域の外側に、連動/非連動の切り替え指示を受け付けるボタンを表示させ、そのボタンを押下するユーザによるマウス操作が検出される毎に、連動/非連動を切替えるようにすることが一般的に考えられる。
また、特許文献1には、画面上に2つの3次元画像を表示して比較観察を行う際に、ユーザが、キーボードのSHIFTキーを離した状態で片方の画像に対して観察角度、拡大率などの表示パラメータを変更させるための操作を行った場合には、両方の画像の表示パラメータが同期して変更されるようにし、キーボードのSHIFTキーを押しながら片方の画像に対して表示パラメータを変更させるための操作を行った場合には、片方の画像対してのみ表示パラメータの変更が行われるようにすることが提案されている。
ところで、近年、タッチパネルを備えた機器が広く普及し、特に、携帯性・操作性の良さから医療の分野においてもタブレット型コンピュータが使われるようになってきている。タブレット型コンピュータのタッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行えるようにすれば、ユーザである医者は患者の病室や手術室など、所望とする場所において、医用画像に対し各種操作を行いながら観察を行うことができる。
タブレット型コンピュータにおいては、マウスやキーボードによる間接入力に代えて、指やペンを用いてタッチパネルに直接入力が行われるので、連動/非連動の切り替えは、タッチパネルの観察対象の画像が表示される領域の外側に、連動/非連動の切り替え指示を受け付けるボタンを表示させ、そのボタンをタップするユーザのタッチ操作が検出される毎に、連動/非連動を切替えるようにすることが考えられる。また、特許文献1のキーボードのSHIFTキー入力の代りに、タブレット本体の側面などに設けられたボタンが押された状態であるか否かに応じて連動/非連動を切替えるようにすることも考えられる。
しかし、このような画面内の画像表示領域の外側に、またはタブレット本体の側面などに設けられたボタンを押下するという操作は、ユーザにとって直感的に操作可能なものではなく、操作性に劣るという問題がある。
本発明は、上記事情に鑑み、タッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行う際に、表示パラメータの変更の連動/非連動を直感的な操作で簡便に切り替えできることができ、作業効率を向上させることができるタッチパネルを有するコンピュータ、その作動方法、及びプログラムを提供することを目的とする。
本発明の作動方法は、タッチパネルを有するコンピュータを、ユーザによるタッチパネル上の操作に応じて作動させる方法であって、タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、タッチパネル上で複数の画像のうちどれか1つの画像に対して表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、そのタッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像を除く他の全ての画像に対して、そのタッチジェスチャーに応じた表示パラメータの変更を行うステップとを含むことを特徴とする(第1の作動方法)。
ここで、タッチジェスチャー応じた表示パラメータの変更を行うというのは、タッチジェスチャーが行われた画像(以下、「操作画像」ともいう)に対しては、そのタッチジェスチャーにより定められる変更量にて表示パラメータの変更を行うことを意味し、その他の画像に対しては、操作画像と同じ変更量にて表示パラメータの変更を行うこと、あるいは、たとえば複数の断面画像群のそれぞれから1枚ずつ断層画像を取得し、タッチパネルに並べて表示させる場合において、複数の断層画像群の間で同じ断面位置を表す断層画像同士が対応付けられている場合には、その対応関係に基づいて、変更後の画像が、変更後の操作画像に対応する画像となるような表示パラメータの変更を行うことを意味する。
また、ここでは、タッチジェスチャーには、画像の表示領域のどこかを押さえた状態にする操作は含まないものとし、1枚の画像に対して、タッチジェスチャーとその表示領域のどこかを押さえる操作は同時に行われないものとする。
また、本発明の作動方法は、タッチパネルを有するコンピュータを、ユーザによるタッチパネル上の操作に応じて作動させる方法であって、タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、タッチパネル上で複数の画像のうちどれか1つの画像に対して表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、そのタッチジェスチャーが行われた画像およびそのタッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像に対してのみ、そのタッチジェスチャーに応じた表示パラメータの変更を行うステップとを含むことを特徴とするものである(第2の作動方法)。
本発明の第1および第2の作動プログラムは、それぞれ上記第1および第2の作動方法をタッチパネルを有するコンピュータに実行させるものである。
本発明の第1および第2のタッチパネルを有するコンピュータは、それぞれ上記第1および第2の作動方法を実施する画像表示処理部と、パラメータ変更処理部とを備えたことを特徴とするものである。
なお、上記タッチパネルを有するコンピュータ、その作動方法、及びプログラムにおいて、タッチジェスチャーは、ドラッグ、フリック、ピンチイン、ピンチアウトおよびダブルタップのいずれかの操作であってもよい。
また、表示パラメータは、表示倍率(拡大率)、表示中心位置(表示領域の中央にくる画像上の位置)、表示角度(画像の向き)、ウィンドウレベル、ウィンドウ幅であってもよい。また、各断面画像が表す断面の位置が既知である場合において、断面画像を切り替えつつ表示を行う場合には、断面の位置を表示パラメータとすることができる。また、ボリュームデータに基づいてボリュームレンダリング、サーフェスレンダリングなどの擬似3次元画像を生成して表示する場合には、ボリュームデータにより表される三次元領域の観察方向を表示パラメータとすることもできる。
本発明の第1のタッチパネルを有するコンピュータ、その作動方法、及びプログラムによれば、タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示し、タッチパネル上で複数の画像のうちどれか1つの画像に対して表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、そのタッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像を除く他の全ての画像に対して、そのタッチジェスチャーに応じた表示パラメータの変更を行うようにしているので、ユーザは、タッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行う際に、画像間で表示パラメータの変更の連動/非連動を直感的な操作で簡便に切り替えできることができる。これにより、作業効率を向上させることができる。
本発明の第2のタッチパネルを有するコンピュータ、その作動方法、及びプログラムによれば、タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、タッチパネル上で複数の画像のうちどれか1つの画像に対して表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、そのタッチジェスチャーが行われた画像およびそのタッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像に対してのみ、そのタッチジェスチャーに応じた表示パラメータの変更を行うようにしているので、ユーザは、タッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行う際に、画像間で表示パラメータの変更の連動/非連動を直感的な操作で簡便に切り替えできることができる。これにより、作業効率を向上させることができる。
以下、図面を参照して、本発明のタッチパネルを有するコンピュータ、その作動方法、及びプログラムの実施形態について説明する。以下に示す実施形態において、タッチパネルを有するコンピュータ(以下、「タッチパネルコンピュータ」という)は、タブレッド型コンピュータに、本発明の作動プログラムをインストールしたものである。この作動プログラムは、SDカード等の記録メディアに格納されて配布され、その記録媒体からタッチパネルを有するコンピュータにインストールされる。もしくは、ネットワークに接続されたサーバコンピュータのストレージ、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するタブレッド型コンピュータにダウンロードされ、インストールされる。
図1は、タブレッド型コンピュータに作動プログラムをインストールすることにより実現されたタッチパネルコンピュータ1の概略構成を示す図である。同図が示すように、タッチパネルコンピュータ1は、タッチパネル10と、プロセッサ20、ストレージ30、メモリ40等を備えている。
タッチパネル10は、表示装置(ディスプレイ)11と、その上にまたはその前に配置されたタッチパッド等からなる入力装置12とを備えている。入力装置12は、タッチパッドへのタッチ、並びにタッチの位置及び強さを認識し、プロセッサ20に報告する。プロセッサ20は、それを受けてタッチを解釈し、特定のタッチに従ってタスクを開始することができる。
ストレージ30には、観察対象の複数の画像データが記憶されている。たとえば、同一患者の異なる時期に撮影された複数のボリュームデータなどが記憶されている。このとき、画像データは、観察対象の複数の画像を特定して観察画面への表示を指示するユーザ入力を受け付けた時点で、ネットワークを介して不図示の撮影装置や画像保管サーバなどからその特定された画像の画像データを取得し記憶されるようにしてもよい。
また、メモリ40には、作動プログラムが記憶されている。この作動プログラムは、プロセッサ20に実行させる処理として、画像表示処理、パラメータ変更処理等を規定している。そして、プロセッサ20が作動プログラムに従いこれらの処理を実行することで、タブレッド型コンピュータは、画像表示処理部、パラメータ変更処理部として機能することになる。
以下、タッチパネルコンピュータ1が行う具体的な処理(画像表示処理およびパラメータ変更処理)について説明する。タッチパネルコンピュータ1は、選択メニューにおいて観察対象の複数の画像を特定して観察画面への表示を指示するユーザ入力を受けて、ストレージ20から観察対象の複数の画像データを取得し、タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示する。たとえば、同一患者の異なる時期に撮影された複数のボリュームデータの表示を指示する入力を受けて、それぞれのボリュームデータから予め設定された観察方向からのボリュームレンダリング画像を生成し、生成された複数のボリュームレンダリング画像を並べて表示する。
次に、タッチパネルコンピュータ1は、タッチパネルにおいて画像に対するユーザによるタッチ操作を検出し、そのタッチ操作に対応するパラメータの変更処理を行い、変更後のパラメータによりタッチパネルの表示を更新する。プロセッサ20は、複数のタッチジェスチャーを区別して認識可能に構成されており、各タッチジェスチャーにはそのタッチジェスチャーにより変更を行うパラメータが対応づけられ、その対応関係が記憶されている。たとえば、ドラッグ操作に観察方向が対応づけられ、ピンチイン・ピンチアウトの操作に表示倍率が対応づけられた対応関係が記憶されている。この対応関係は、ユーザが任意に設定・修正可能にしてもよい。
また、タッチパネルコンピュータ1は、どれか1つの画像に対し表示パラメータの変更を指示する操作が行われたことに応じて、複数の画像の表示パラメータを連動して変更させる「連動モード」と、操作が行われた1つの画像に対してのみ表示パラメータの変更させる「非連動モード」のいずれか一方のモードをパラメータ変更処理の基本モードとして設定し、この設定された基本モードに従って、表示パラメータの変更を制御する。このとき、基本モードの設定は、観察開始時に、初期設定としてユーザに指定させてもよいが、どちらかのモードをデフォルトの設定とし、ユーザが任意に変更可能にしてもよい。
タッチパネルコンピュータ1は、パラメータ変更処理の基本モードとして「連動モード」が設定されている場合には、基本的には、どれか1つの画像に対し特定の表示パラメータの変更を指示するタッチジェスチャーが行われたことに応じて、全ての画像に対してそのタッチジェスチャーに応じた表示パラメータの変更を行う。ただし、そのタッチジェスチャーが行われたときに、その表示領域のどこかが押さえられた状態にあった画像が存在する場合には、その画像については表示パラメータをそのまま維持し、その画像を除く他の全ての画像に対して、タッチジェスチャーに応じた表示パラメータの変更を行う。
ここで、図2~図4にそれぞれ、「連動モード」の設定下で表示パラメータを変更する処理の具体例を示す。図2と図3は、タッチパネル上に2つの画像を表示して観察を行う場合に関し、図2には、左右2つの画像のいずれにも「押さえる」といった他のタッチ操作が行われていない状態で、右側の画像に対し観察角度の変更を指示するドラッグ操作が行われたことに応じて、左右両方の画像に対してそのドラッグ操作に応じた観察角度の変更が行われたことが示されており、図3には、左側の画像が押さえられた状態で、右側の画像に対し観察角度の変更を指示するドラッグ操作が行われたことに応じて、右側の画像に対してのみドラッグ操作に応じた観察角度の変更が行われたことが示されている。
図4は、タッチパネル上に4つの画像を表示して観察を行う場合に関し、この図4には、左上および左下の2つの画像が押さえられた状態で、右下の画像に対し観察角度の変更を指示するドラッグ操作が行われたことに応じて、左上、左下の画像については観察角度がそのまま維持され、右上、右下の画像に対してのみドラッグ操作に応じた観察角度の変更が行われたことが示されている。
一方、タッチパネルコンピュータ1は、パラメータ変更処理の基本モードとして「連動モード」が設定されている場合には、基本的には、どれか1つの画像に対し特定の表示パラメータの変更を指示するタッチジェスチャーが行われたことに応じて、タッチジェスチャーが行われた1つの画像に対してのみ、そのタッチジェスチャーに応じた表示パラメータの変更を行う。ただし、ただし、そのタッチジェスチャーが行われたときに、その表示領域のどこかが押さえられた状態にあった画像が存在する場合には、その画像にも、さらに、同じタッチジェスチャーに応じた前記表示パラメータの変更を行う。
ここで、図5に、「非連動モード」の設定下で表示パラメータを変更する処理の具体例を示す。図5も、タッチパネル上に4つの画像を表示して観察を行う場合に関し、左上および左下の2つの画像が押さえられた状態で、右下の画像に対し観察角度の変更を指示するドラッグ操作が行われたことに応じて、右下の画像に加え、左上、左下の画像に対してもドラッグ操作に応じた観察角度の変更が行われ、右上の画像については観察角度がそのまま維持されたことが示されている。
以上の構成により、本実施形態のタッチパネルコンピュータ、その作動方法、及びプログラムによれば、医者等のユーザは、タッチパネルに複数の画像を並べて表示させ、表示パラメータを変更しながら観察を行う際に、表示パラメータの変更の連動/非連動を、連動または非連動にすべき画像を直接「押さえる」という直感的な操作で簡便に切り替えできることができる。これにより、作業効率を向上させることができる。
また、たとえば図4,図5に示すように、3以上の画像を表示して観察を行う場合において、医者等のユーザは、連動または非連動にすべき一部の画像を直接「押さえる」という直感的な操作で、画像毎に、表示パラメータの変更の連動/非連動を簡便に切替えることができ、一部の画像については表示パラメータの変更を連動させ、他の一部の画像については非連動にするといった処理を容易かつ迅速に行うことができる。
次に、本発明のタッチパネルを有するコンピュータ、その作動方法、及びプログラムを好適に適用可能な場面について説明する。たとえば大腸の検査では、診断精度を向上させるため、異なる体位の画像で同じ箇所を観察することがある。たとえば、仰臥位と腹臥位の2つの体位で撮影を行い、体位別の2つのボリュームデータを取得し、各ボリュームデータからそれぞれ大腸領域を抽出し、細線化処理により大腸のパスを抽出し、パスに沿って算出された始点からの距離が等しい点同士を解剖学的に同じ点を表す点と認定し、対応付け処理を行う。そして、その対応関係を利用して、各ボリュームデータに基づいて解剖学的に同じ点を視点とする仮想内視鏡画像を生成し、タッチパネルに表示させ、ユーザによるタッチパネル上のドラッグ操作に応じて各仮想内視鏡画像の視点位置を連動して移動させながら観察を行う。しかし、画像によっては、大腸領域が適切に抽出されず、途中で対応づけにズレが生じてしまうことがある。そこで、本発明を適用し、視点位置にズレが生じていない間は、「連動モード」の設定下で、片方の画像に対するドラッグ操作により両方の仮想内視鏡画像の視点位置を連動して移動させながら観察を行い、視点位置にズレが生じたときには、一方の画像を押さえた状態で他方の画像に所定量のドラッグ操作を行うことにより、他方の画像に対してのみ視点位置の変更が行われるようにしてズレを修正し、ズレがなくなった時点で一方の画像を押さえていた手を離して、再び連動表示による観察を再開する。
また、たとえば、脊椎を含む被検者の所定範囲を撮影して得られた体軸に沿って連続する複数枚の断面画像を並べて表示し観察を行うことがある。このとき、各断面画像中の脊椎の中心がその表示領域の中心にくるようにするため、脊椎の中心線を設定し、その設定された中心線と交差する断面画像上の位置を脊椎の中心位置として認定し、その認定された位置が表示領域の中心となるようにする処理を行う。しかし、脊椎の中心線の設定の仕方によっては、実際の脊椎の中心との間でズレが生じてしまうことがある。また、このようなズレは、通常連続する一部の断面画像において同じ方向に略同程度となることが多い。そこで、本発明を適用し、「非連動モード」の設定下で、ズレの修正が必要な一部の断面画像のうち操作用の1枚の断面画像を除く他の断面画像を押さえた状態で、操作用の断面画像に所定量のドラッグ操作を行うことにより、それらの画像に対してのみ表示中心位置を変更するという処理を何回か繰り返すことで容易かつ迅速にズレを修正することができる。
なお、上記実施の形態では、本発明をタブレッド型コンピュータに適用した場合について説明したが、たとえばタッチパネルをユーザインターフェースの一つとして備えている、デスクトップ型コンピュータ、ラップトップ型コンピュータ、スマートフォン等に広く適用することができる。
また、本発明によるコンピュータは、少なくともタッチパネルを備えたものであればよく、タッチパネルに加えてさらに、マウスやキーボード等の他のユーザインターフェースを備えたものであっても構わない。
また、上記実施の形態では、タブレットコンピュータが複数のジェスチャーを区別して認識可能に構成されている場合について説明したが、少なくとも1つのジェスチャーを認識可能であれば足りる。
Claims (8)
- タッチパネルを有するコンピュータを、ユーザによる前記タッチパネル上の操作に応じて作動させる方法であって、
前記タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、
前記タッチパネル上で前記表示された複数の画像のうちどれか1つの画像に対して前記表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、該タッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像を除く他の全ての画像に対して、前記タッチジェスチャーに応じた前記表示パラメータの変更を行うステップと
を含むことを特徴とする方法。 - 前記タッチジェスチャーが、ドラッグ、フリック、ピンチイン、ピンチアウトおよびダブルタップのいずれかの操作であることを特徴とする請求項1記載の方法。
- 前記表示パラメータが、表示倍率、表示中心位置、表示角度、ウィンドウレベル、ウィンドウ幅、断面の位置および観察角度のいずれかであることを特徴とする請求項1記載の方法。
- タッチパネルを有するコンピュータを、ユーザによる前記タッチパネル上の操作に応じて作動させるためのプログラムであって、
前記コンピュータに、
前記タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、
前記タッチパネル上で前記表示された複数の画像のうちどれか1つの画像に対して前記表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、該タッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像を除く他の全ての画像に対して、前記タッチジェスチャーに応じた前記表示パラメータの変更を行うステップと
を実行させるためのプログラム。 - タッチパネルを備え、ユーザによる前記タッチパネル上の操作に応じて作動するンピュータであって、
前記タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示する表示処理部と、
前記タッチパネル上で前記表示された複数の画像のうちどれか1つの画像に対して前記表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、該タッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像を除く他の全ての画像に対して、前記タッチジェスチャーに応じた前記表示パラメータの変更を行うパラメータ変更処理部と
を備えたことを特徴とするコンピュータ。 - タッチパネルを有するコンピュータを、ユーザによる前記タッチパネル上の操作に応じて作動させる方法であって、
前記タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、
前記タッチパネル上で前記表示された複数の画像のうちどれか1つの画像に対して前記表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、該タッチジェスチャーが行われた画像および前記タッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像に対してのみ、前記タッチジェスチャーに応じた前記表示パラメータの変更を行うステップと
を含むことを特徴とする方法。 - タッチパネルを有するコンピュータを、ユーザによる前記タッチパネル上の操作に応じて作動させるためのプログラムであって、
前記コンピュータに、
前記タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示するステップと、
前記タッチパネル上で前記表示された複数の画像のうちどれか1つの画像に対して前記表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、該タッチジェスチャーが行われた画像および前記タッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像に対してのみ、前記タッチジェスチャーに応じた前記表示パラメータの変更を行うステップと
を実行させるためのプログラム。 - タッチパネルを備え、ユーザによる前記タッチパネル上の操作に応じて作動するンピュータであって、
前記タッチパネル上に複数の画像をそれぞれの画像に予め設定された表示パラメータを使用して表示する表示処理手段と、
前記タッチパネル上で前記表示された複数の画像のうちどれか1つの画像に対して前記表示パラメータの変更に対応付けられたタッチジェスチャーが行われた場合、該タッチジェスチャーが行われた画像および前記タッチジェスチャーが行われたときにその表示領域のどこかが押さえられた状態にあった画像に対してのみ、前記タッチジェスチャーに応じた前記表示パラメータの変更を行うパラメータ処理手段と
を備えたことを特徴とするコンピュータ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/743,518 US10095395B2 (en) | 2012-12-21 | 2015-06-18 | Computer with touch panel, operation method, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012279438A JP5946216B2 (ja) | 2012-12-21 | 2012-12-21 | タッチパネルを有するコンピュータ、その作動方法、及びプログラム |
JP2012-279438 | 2012-12-21 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US14/743,518 Continuation US10095395B2 (en) | 2012-12-21 | 2015-06-18 | Computer with touch panel, operation method, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014097615A1 true WO2014097615A1 (ja) | 2014-06-26 |
Family
ID=50977977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/007400 WO2014097615A1 (ja) | 2012-12-21 | 2013-12-17 | タッチパネルを有するコンピュータ、その作動方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10095395B2 (ja) |
JP (1) | JP5946216B2 (ja) |
WO (1) | WO2014097615A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016043070A1 (ja) * | 2014-09-16 | 2016-03-24 | 日本電気株式会社 | ウィンドウ制御方法、情報処理装置およびその制御方法と制御プログラム |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7961943B1 (en) | 2005-06-02 | 2011-06-14 | Zeevi Eli I | Integrated document editor |
US11442619B2 (en) | 2005-06-02 | 2022-09-13 | Eli I Zeevi | Integrated document editor |
KR102168132B1 (ko) * | 2013-12-31 | 2020-10-21 | 삼성디스플레이 주식회사 | 유기 발광 표시 장치 |
USD759689S1 (en) | 2014-03-25 | 2016-06-21 | Consumerinfo.Com, Inc. | Display screen or portion thereof with graphical user interface |
USD759690S1 (en) * | 2014-03-25 | 2016-06-21 | Consumerinfo.Com, Inc. | Display screen or portion thereof with graphical user interface |
USD760256S1 (en) | 2014-03-25 | 2016-06-28 | Consumerinfo.Com, Inc. | Display screen or portion thereof with graphical user interface |
JP5987931B2 (ja) | 2015-02-09 | 2016-09-07 | 株式会社リコー | 映像表示システム、情報処理装置、映像表示方法、映像表示プログラム、映像処理装置、映像処理方法および映像処理プログラム |
JP6037072B2 (ja) * | 2016-03-22 | 2016-11-30 | 株式会社リコー | 映像表示システム、情報処理装置、映像表示方法および映像表示プログラム |
JP6630654B2 (ja) * | 2016-11-02 | 2020-01-15 | 株式会社リコー | プログラム、方法、情報処理装置および映像表示システム |
IL273279B2 (en) * | 2017-09-15 | 2024-04-01 | Eli Zeevi | Integrated document editor |
US20190251884A1 (en) * | 2018-02-14 | 2019-08-15 | Microsoft Technology Licensing, Llc | Shared content display with concurrent views |
JP6683216B2 (ja) * | 2018-07-03 | 2020-04-15 | 株式会社リコー | プログラム、方法、情報処理装置および映像表示システム |
JP2019032908A (ja) * | 2018-11-30 | 2019-02-28 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6784966B1 (ja) * | 2020-04-21 | 2020-11-18 | 3D Nest株式会社 | 画像表示方法、画像表示システム、及び画像表示プログラム |
JP7020523B2 (ja) * | 2020-10-08 | 2022-02-16 | 株式会社リコー | 画像表示システム、画像表示方法、及びプログラム |
WO2023127541A1 (ja) * | 2021-12-27 | 2023-07-06 | 株式会社あい美す | 静止画表示プログラム、静止画表示方法、静止画表示装置、静止画データ群取得プログラム、撮影方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086519A (ja) * | 2008-09-03 | 2010-04-15 | Canon Inc | 情報処理装置、その動作方法及びプログラム |
JP2011242820A (ja) * | 2010-05-13 | 2011-12-01 | Panasonic Corp | 電子機器、表示方法、及びプログラム |
JP2013114558A (ja) * | 2011-11-30 | 2013-06-10 | Canon Inc | 情報処理装置、表示制御方法、及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5575620B2 (ja) | 2010-11-30 | 2014-08-20 | 株式会社東芝 | 画像処理装置 |
DE102011087150A1 (de) * | 2011-11-25 | 2013-05-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Medizinisches bildbasiertes Informationssystem und mobiles Multi-Touch-Anzeigegerät |
-
2012
- 2012-12-21 JP JP2012279438A patent/JP5946216B2/ja active Active
-
2013
- 2013-12-17 WO PCT/JP2013/007400 patent/WO2014097615A1/ja active Application Filing
-
2015
- 2015-06-18 US US14/743,518 patent/US10095395B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086519A (ja) * | 2008-09-03 | 2010-04-15 | Canon Inc | 情報処理装置、その動作方法及びプログラム |
JP2011242820A (ja) * | 2010-05-13 | 2011-12-01 | Panasonic Corp | 電子機器、表示方法、及びプログラム |
JP2013114558A (ja) * | 2011-11-30 | 2013-06-10 | Canon Inc | 情報処理装置、表示制御方法、及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016043070A1 (ja) * | 2014-09-16 | 2016-03-24 | 日本電気株式会社 | ウィンドウ制御方法、情報処理装置およびその制御方法と制御プログラム |
CN106687904A (zh) * | 2014-09-16 | 2017-05-17 | 日本电气株式会社 | 窗口控制方法、信息处理设备和信息处理设备的控制方法和控制程序 |
Also Published As
Publication number | Publication date |
---|---|
JP2014123271A (ja) | 2014-07-03 |
JP5946216B2 (ja) | 2016-07-05 |
US20150286395A1 (en) | 2015-10-08 |
US10095395B2 (en) | 2018-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5946216B2 (ja) | タッチパネルを有するコンピュータ、その作動方法、及びプログラム | |
US10937544B2 (en) | Medical imaging apparatus for displaying x-ray images of different types | |
KR101365776B1 (ko) | 멀티 터치 시스템 및 그 구동 방법 | |
JP5580694B2 (ja) | 情報処理装置、その制御方法、プログラム及び記憶媒体 | |
JP4745748B2 (ja) | 医用画像表示装置 | |
US10283088B2 (en) | Method and apparatus for providing medical information | |
US10185804B2 (en) | Input apparatus and information processing system | |
US20200104004A1 (en) | Display control device, display control method, and display control system | |
WO2016082379A1 (zh) | 一种超声设备的多屏互动操作方法和系统 | |
CN106020473A (zh) | 界面操作方法及系统 | |
US20190065007A1 (en) | User interface comprising a plurality of display units, and method for positioning contents on a plurality of display units | |
JP2011192081A (ja) | 情報処理装置及びその制御方法 | |
US20160202892A1 (en) | Graphical user interface providing virtual super-zoom functionality | |
KR101686495B1 (ko) | 표시 제어 장치, 씬 클라이언트 시스템, 표시 제어 방법 및 기록매체 | |
JP2013214275A (ja) | 三次元位置指定方法 | |
US20130139110A1 (en) | User Interface Image Navigation System for Use in Medical or Other Applications | |
WO2014030303A1 (ja) | 画像表示装置及びプログラム | |
CN104915135A (zh) | 显示控制设备和方法 | |
JP2009119000A (ja) | 医療画像処理用の補助コントローラ、画像処理システム、及び医療画像の処理方法 | |
WO2022111397A1 (zh) | 控制方法、装置和电子设备 | |
CN106028944B (zh) | 一种双屏超声诊断系统及其界面操作方法 | |
JP6501525B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN109857318A (zh) | 基于超声诊断系统的超声图像处理方法、设备及存储介质 | |
US10459532B2 (en) | Cursor movement control method, computer program, cursor movement control device and image display system | |
CN105981016A (zh) | 具有用于控制多个设备的不同运动方式的控制装置的医学系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13865958 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 13865958 Country of ref document: EP Kind code of ref document: A1 |