WO2016147460A1 - 超音波診断装置及び超音波画像表示方法 - Google Patents

超音波診断装置及び超音波画像表示方法 Download PDF

Info

Publication number
WO2016147460A1
WO2016147460A1 PCT/JP2015/079316 JP2015079316W WO2016147460A1 WO 2016147460 A1 WO2016147460 A1 WO 2016147460A1 JP 2015079316 W JP2015079316 W JP 2015079316W WO 2016147460 A1 WO2016147460 A1 WO 2016147460A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual keyboard
display
diagnostic apparatus
ultrasonic
ultrasonic diagnostic
Prior art date
Application number
PCT/JP2015/079316
Other languages
English (en)
French (fr)
Inventor
太郎 江口
隆也 宇野
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to CN201580077696.0A priority Critical patent/CN107405135B/zh
Priority to US15/557,879 priority patent/US20180052963A1/en
Publication of WO2016147460A1 publication Critical patent/WO2016147460A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4433Constructional features of the ultrasonic, sonic or infrasonic diagnostic device involving a docking unit

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus, and particularly to an ultrasonic diagnostic apparatus using a virtual keyboard.
  • the ultrasonic diagnostic apparatus is an apparatus that forms an ultrasonic image based on a reception signal obtained by transmitting / receiving ultrasonic waves to / from a living body.
  • a patient ID, a comment, or the like may be input by using a hardware keyboard or a virtual keyboard (software keyboard) displayed on a display device.
  • the virtual keyboard may overlap the ultrasound image, and the ultrasound image is covered by the virtual keyboard, making it difficult to observe the ultrasound image.
  • the problem can arise. To deal with this, it is possible to reduce the ultrasonic image and the virtual keyboard so that the ultrasonic image and the virtual keyboard do not overlap, but this is inconvenient for observation of the ultrasonic image and input operations using the virtual keyboard. Can cause problems.
  • An object of the present invention is to appropriately perform input using a virtual keyboard and observation of an ultrasonic image in an ultrasonic diagnostic apparatus.
  • the ultrasonic diagnostic apparatus includes a display unit that displays an ultrasonic image formed based on a reception signal obtained by transmitting and receiving ultrasonic waves, and a transparent display screen that displays the ultrasonic image. It includes a display control unit that executes control for displaying a displayable virtual keyboard, and a detection unit that detects an input to the virtual keyboard on the display screen.
  • the virtual keyboard Since the virtual keyboard has transparency, it is possible to observe an ultrasonic image as a background image through the virtual keyboard even when the virtual keyboard is displayed superimposed on the ultrasonic image. As a result, in order to avoid the superimposed display of the virtual keyboard and the ultrasonic image in a limited display area, it is not necessary to reduce the ultrasonic image and the virtual keyboard, and each display element can be displayed in a large size. It becomes. Therefore, it is possible to appropriately perform an input operation using the virtual keyboard while appropriately observing the ultrasonic image. Further, it is not necessary to select and display each display element in the display area.
  • the transparency of the virtual keyboard is variable. This makes it possible to observe the ultrasonic image and input to the virtual keyboard by appropriately changing the transparency of the virtual keyboard.
  • the display control unit shifts the virtual keyboard upward or downward within the display screen in response to a shift instruction.
  • the virtual keyboard can be displayed while avoiding the target portion on the ultrasonic image.
  • the display control unit displays a button image for shifting the virtual keyboard upward or downward on the display unit.
  • the display position of the virtual keyboard can be changed by a simple operation.
  • the detection unit detects an input to the display area of the virtual keyboard as an input to the background image of the virtual keyboard when the transparency of the virtual keyboard satisfies a predetermined condition. Thereby, an erroneous input to the virtual keyboard is prevented, and an input to the background image is detected as an effective input.
  • the display control unit changes the transparency of the virtual keyboard according to the detected distance.
  • the visibility of a virtual keyboard or an ultrasonic image changes according to a user's situation, such as an inspector.
  • the display control unit increases the transparency of the virtual keyboard when the distance between the display unit and the user is far than the transparency of the virtual keyboard when the distance between the display unit and the user is short.
  • the transparency is lowered and the visibility of the virtual keyboard is improved.
  • the transparency increases and the visibility of the virtual keyboard decreases, thereby improving the visibility of the ultrasonic image.
  • the display control unit changes the display position of the virtual keyboard according to the position of the point of interest or the region of interest set for the ultrasound image.
  • an ultrasonic image formed based on a reception signal obtained by transmission and reception of ultrasonic waves is displayed on a display device, and a display screen on which the ultrasonic image is displayed is displayed.
  • the method includes a step of executing control to display a virtual keyboard that can be transparently displayed, and a step of detecting an input operation to the virtual keyboard on the display screen.
  • FIG. 1 is a conceptual diagram showing a preferred embodiment of an ultrasonic diagnostic system according to the present invention. It is a perspective view of the ultrasonic diagnostic system in a separated state. It is a perspective view of the ultrasonic diagnostic system in a docking state. It is a block diagram of a front end device. It is a block diagram of a back end apparatus. It is a figure which shows the communication system in a docking state, and the communication system in a separate state. It is a block diagram which shows the structure regarding the display control of a touch panel monitor. It is a figure which shows the layer structure of an image. It is a figure which shows the 1st display example of a virtual keyboard. It is a figure which shows the 2nd example of a display of a virtual keyboard.
  • FIG. 1 shows a schematic configuration of an ultrasonic diagnostic system according to the present invention.
  • the ultrasonic diagnostic system 10 is a medical device used in a medical institution such as a hospital, and is for performing ultrasonic diagnosis on a subject (living body).
  • the ultrasonic diagnostic system 10 is roughly divided into a front end (FE) device 12, a back end (BE) device 14, and a probe 16.
  • the FE device 12 is a device close to the living body and the BE device 14 is a device far from the living body.
  • the FE device 12 and the BE device 14 are separated, and each constitutes a portable device.
  • the FE device 12 and the BE device 14 can operate in a separate state where they are separated, and can operate in a docking state where they are coupled.
  • FIG. 1 shows a separate state.
  • the probe 16 is a transducer that transmits and receives ultrasonic waves while being in contact with the surface of the living body.
  • the probe 16 includes a 1D array transducer including a plurality of vibration elements arranged in a linear shape or an arc shape.
  • An ultrasonic beam is formed by the array transducer and is repeatedly electronically scanned.
  • a beam scanning surface is formed in the living body for each electronic scanning.
  • an electronic scanning method an electronic linear scanning method, an electronic sector scanning method, and the like are known. It is also possible to provide a 2D array transducer capable of forming a three-dimensional echo data capturing space instead of the 1D array transducer.
  • the probe 16 is connected to the FE device 12 via a cable 28.
  • the probe 16 may be connected to the FE device 12 by wireless communication. In that case, a wireless probe is used. In a state where a plurality of probes are connected to the FE device 12, the probe 16 to be actually used may be selected from them. The probe 16 inserted into the body cavity may be connected to the FE device 12.
  • the FE device 12 and the BE device 14 are electrically connected to each other by a wireless communication method in the separated state shown in FIG. In the present embodiment, these devices are connected to each other by the first wireless communication method and the second wireless communication method.
  • a wireless communication path 18 based on the first wireless communication system and a wireless communication path 20 based on the second wireless communication system are clearly shown.
  • the first wireless communication method is faster than the second wireless communication method, and in this embodiment, ultrasonic reception data is transmitted from the FE device 12 to the BE device 14 using this method. That is, the first wireless communication system is used for data transmission.
  • the second wireless communication method is a communication method that is lower in speed and simpler than the first wireless transmission method.
  • a control signal is transmitted from the BE device 14 to the FE device 12 using the method. That is, the second wireless communication system is used for control.
  • a wired communication path 22 is shown between two devices.
  • the power supply path 26 is for supplying DC power from the FE device 12 to the BE device 14 in the docking state.
  • the electric power is used for the operation of the BE device 14 and is used for charging the battery in the BE device 14.
  • Reference numeral 24 denotes a DC power supply line supplied from an AC adapter (AC / DC converter).
  • the AC adapter is connected to the FE device 12 as necessary.
  • the FE device 12 also has a built-in battery, and can operate while using the battery as a power source.
  • the FE device 12 has a box shape as will be described later. The configuration and operation of the FE device 12 will be described in detail later.
  • the BE device 14 has a tablet shape or a flat plate shape in the present embodiment. It basically has the same configuration as a general tablet computer. However, the BE device 14 is equipped with various types of dedicated software for ultrasonic diagnosis. This includes an operation control program, an image processing program, and the like.
  • the BE device 14 includes a display panel 30 with a touch sensor. It functions as a user interface that doubles as an input device and a display device. In FIG. 1, a B-mode tomographic image 32 as an ultrasonic image is displayed on the display panel 30. The user performs various inputs using the icons displayed on the display panel 30. On the display panel 30, a slide operation, an enlargement operation, and the like can be performed.
  • control for forcibly setting the ultrasound diagnostic system 10 to the frozen state when the state is changed is executed.
  • the FE device 12 and the BE device 14 respectively determine immediately before docking based on the radio wave intensity or reception state that indicates the distance between the two devices.
  • control for changing the operation state to the freeze state is executed in each of the devices 12 and 14. After the docking state is formed and the freeze release operation by the inspector, the freeze state of the devices 12 and 14 is released.
  • the separate state is detected by the FE device 12 and the BE device 14 by disconnection detection or other methods, and they are in a freeze state. After the subsequent freeze release operation, the freeze state of these devices 12 and 14 is released.
  • the BE device 14 can be separately connected to the hospital LAN by a wireless communication method and a wired communication method. These communication paths are not shown.
  • the BE device 14 (or the FE device 12) may be separately connected to another dedicated device (for example, a remote controller) that functions for ultrasonic diagnosis by a wireless communication method or a wired communication method.
  • Fig. 2 shows a separate state.
  • the FE device 12 is placed on a desk, for example.
  • the FE device 12 has a holder 34 having an insertion slot (slot).
  • the holder 34 has a hinge mechanism and can rotate around a horizontal axis.
  • a connector provided at the end of the probe cable is attached to a specific side surface of the FE device 12. You may form the room which accommodates a probe etc. in the inside of the FE apparatus 12.
  • FIG. According to such a configuration, it is convenient when the ultrasonic diagnostic system is transported, and the probe can be protected.
  • the BE device 14 is separated from the FE device 12, and the BE device 14 can be further separated from the FE device 12 as long as wireless communication can be performed.
  • Fig. 3 shows the docked state.
  • the lower end of the BE device 14 is inserted into the insertion port of the holder 34.
  • the FE device 12 and the BE device 14 are in a wired connection state. That is, both are connected by a wired LAN, and both are connected by a wired power supply line.
  • the angle of the BE device 14 can be arbitrarily changed to change its posture. It is also possible to completely tilt the BE device 14 to the rear side (the upper surface side of the FE device 12).
  • FIG. 4 is a block diagram of the FE device 12. Each block in the figure is configured by hardware such as a processor and an electronic circuit.
  • the transmission signal generation circuit 38 is a circuit that supplies a plurality of transmission signals in parallel to a plurality of vibration elements in the probe via the probe connection circuit 40. This supply forms a transmit beam at the probe.
  • a plurality of reception signals are output from them, and the plurality of reception signals are input to the reception signal processing circuit 42 via the probe connection circuit 40.
  • the reception signal processing circuit 42 includes a plurality of preamplifiers, a plurality of amplifiers, a plurality of A / D converters, and the like.
  • a plurality of digital reception signals output from the reception signal processing circuit 42 are sent to the reception beamformer 46.
  • the reception beamformer 46 applies phasing addition processing to a plurality of digital reception signals, and outputs beam data as a signal after phasing addition.
  • the beam data consists of a plurality of echo data arranged in the depth direction corresponding to the received beam.
  • the reception frame data is constituted by a plurality of beam data obtained by one electronic scan.
  • the transmission / reception controller 44 controls transmission signal generation and reception signal processing based on transmission / reception control data transmitted from the BE device 14.
  • the beam processor 50 is a circuit that performs various types of data processing such as detection processing, logarithmic conversion processing, and correlation processing on individual beam data input in time series order.
  • the control unit 52 controls the overall operation of the FE device 12. In addition, control is performed to transmit beam data sequentially transmitted from the beam processor 50 to the BE device 14 by wire transmission or wireless transmission. In the present embodiment, the control unit 52 also functions as a wired communication device.
  • the wireless communication device 54 is a module for performing communication using the first wireless communication method.
  • the wireless communication device 56 is a module for performing communication using the second wireless communication method.
  • Reference numeral 18 indicates a wireless communication path according to the first wireless communication system
  • reference numeral 20 indicates a wireless communication path according to the second wireless communication system.
  • each is a bidirectional transmission path, in the present embodiment, a large amount of received data is transmitted from the FE device 12 to the BE device 14 using the former, and control is performed from the BE device 14 to the FE device 12 using the latter. A signal is transmitted.
  • Reference numeral 64 denotes a terminal for wired communication, to which the wired communication path 22 is connected.
  • Reference numeral 66 denotes a power supply terminal to which the power supply line 26 is connected.
  • the power line 26 is a line for supplying DC power from the FE device 12 to the BE device 14 as described above.
  • the battery 60 is, for example, a lithium ion type battery, and charging / discharging therein is controlled by a power supply controller 58.
  • a power supply controller 58 When the battery is driven, power from the battery 60 is supplied to each circuit in the FE device 12 via the power controller 58.
  • Reference numeral 62 denotes a power supply line when the AC adapter is connected.
  • the AC adapter When the AC adapter is connected, external power is supplied to each circuit in the FE device 12 by the action of the power supply controller 58. At this time, if the charge amount of the battery 60 is less than 100%, the battery 60 is charged using external power.
  • the FE device 12 During the ultrasonic diagnostic operation (during transmission / reception), the FE device 12 repeatedly executes a plurality of transmission signals supplied to the probe and a processing of a plurality of reception signals obtained thereafter in accordance with control on the BE device 14 side To do.
  • the beam data in chronological order obtained in this way are sequentially transmitted to the BE device 14 by wireless communication in the separate state and by wire communication in the docked state. In that case, each beam data is converted into a plurality of packets, and each beam data is transmitted by a so-called packet transmission method.
  • various modes such as CFM mode, M mode, and D mode (PW mode, CW mode) are known as operation modes.
  • Transmission / reception processing for harmonic imaging and elasticity information imaging may be executed.
  • circuits such as a biological signal input circuit are not shown.
  • FIG. 5 is a block diagram of the BE device 14.
  • each block represents hardware such as a processor, a circuit, and a memory.
  • the CPU block 68 includes a CPU 70, an internal memory 72, and the like.
  • the internal memory 72 functions as a working memory or a cache memory.
  • the external memory 80 connected to the CPU block 68 stores an OS, various control programs, various processing programs, and the like. The latter includes a scan conversion processing program.
  • the external memory 80 also functions as a cine memory having a ring buffer structure. A cine memory may be configured on the internal memory 72.
  • the CPU block 68 generates display frame data by a scan conversion process based on a plurality of beam data. It constitutes an ultrasonic image (for example, a tomographic image). The processing is sequentially executed to generate a moving image. The CPU block 68 performs various processes for displaying an ultrasonic image on the beam data or the image. In addition, the operation of the BE device 14 is controlled, and the entire ultrasonic diagnostic system is controlled.
  • the touch panel monitor (display panel) 78 functions as an input device and a display device.
  • the touch panel monitor 78 includes a liquid crystal display and a touch sensor, and functions as a user interface.
  • the touch panel monitor 78 displays a display image including an ultrasonic image, and displays a virtual keyboard (software keyboard) and various buttons (icons) for operation.
  • the wireless communication device 74 is a module for performing wireless communication according to the first wireless communication method.
  • the wireless communication path at that time is indicated by reference numeral 18.
  • the wireless communication device 76 is a module for performing wireless communication according to the second wireless communication method.
  • the wireless communication path at that time is indicated by reference numeral 20.
  • the CPU block 68 also has a function of performing wired communication according to a wired communication method. In the docked state, a wired communication line is connected to the wired communication terminal 92.
  • the power supply line 26 is connected to the power supply terminal 94.
  • a plurality of detectors 84 to 90 are connected to the CPU block 68 via the I / F circuit 82. It may include illuminance sensors, proximity sensors, temperature sensors, distance sensors and the like. A module such as GPS may be connected.
  • the I / F circuit 82 functions as a sensor controller.
  • the battery 102 is a lithium ceramic type battery, and charging / discharging thereof is controlled by the power supply controller 100.
  • the power supply controller 100 supplies power from the battery 102 to each circuit in the BE device 14 during battery operation. At the time of non-battery operation, the power supplied from the FE device 12 or the power supplied from the AC adapter is supplied to each circuit in the BE device 14.
  • Reference numeral 104 denotes a power supply line via an AC adapter.
  • the BE device 14 controls the FE device 12 and sequentially processes the beam data sent from the FE device 12 to generate an ultrasonic image and displays it on the touch panel monitor 78. At that time, an operation graphic image is also displayed together with the ultrasonic image.
  • the BE device 14 and the FE device 12 are electrically connected wirelessly or by wire, and the ultrasound diagnosis operation is continuously executed while the two are synchronized.
  • the freeze state the operations of the transmission signal generation circuit and the reception signal generation circuit in BE device 14 are stopped, and the operation of the booster circuit in power supply controller 100 is also stopped.
  • a still image is displayed at the time of freezing, and the content is maintained. You may comprise so that an external indicator can be connected to BE apparatus 14.
  • Reference numeral 110 denotes a first wireless communication system
  • reference numeral 112 denotes a second wireless communication system
  • Reference numeral 114 denotes a wired communication system
  • Reference numeral 116 indicates the contents of the wireless communication system.
  • wired communication is selected, and in the FE device 12 and the BE device 14, the first wireless communication device and the second wireless communication device are in an operation suspension state. This saves power.
  • the separate state 120 wireless communication is selected, and in the FE device 12 and the BE device 14, the first wireless communication device and the second wireless communication device operate. At that time, the wired communication system is in an operation halt state.
  • the first wireless communication method 110 is faster than the second wireless communication method 112.
  • the second wireless communication method 112 is slower than the first wireless communication method 110, but is simple and inexpensive, and has low power consumption.
  • a wired communication system there is a TCP / IP protocol on Ethernet (registered trademark).
  • the first wired communication system is IEEE802.11, and the second wireless communication system is IEEE802.15.1. They are only examples, and other communication methods can be used. In any case, it is desirable to use a secure communication method.
  • the wireless communication device has a function of automatically changing the transmission power according to the reception strength (that is, the distance). That is, when the FE device 12 comes close to the BE device 14, the control for reducing the transmission power of both devices is automatically executed. Therefore, it is possible to determine that both devices are close to each other based on the set transmission power. Alternatively, it is possible to determine that two devices are close to each other based on reception intensity, reception error rate, and the like. It is also possible to use a proximity sensor.
  • the BE apparatus 14 itself functions as an ultrasonic diagnostic apparatus, and a system in which the FE apparatus 12 and the BE apparatus 14 are combined also functions as an ultrasonic diagnostic apparatus.
  • Virtual keyboard The BE device 14 has a function of displaying a virtual keyboard. The function will be described below.
  • a virtual keyboard (software keyboard) is displayed on the touch panel monitor 78 as necessary.
  • the virtual keyboard is a keyboard that accepts user input on the touch panel monitor 78.
  • FIG. 7 shows a configuration related to display control of the touch panel monitor.
  • the display control unit 130 causes the touch panel monitor 78 to display an ultrasonic image, various buttons (icons) for operation, a virtual trackpad, a virtual keyboard, and the like.
  • the display control unit 130 displays a virtual keyboard in the display area where the ultrasonic image is displayed on the touch panel monitor 78.
  • the virtual keyboard data is stored in advance in, for example, the internal memory 72 or the external memory 80 in the CPU block 68.
  • the virtual keyboard according to the present embodiment is an image that can be displayed transparently, and its transparency is variable.
  • the transparency is a value that can be changed between 0% and 100%, for example. This transparency may be set by the user or may be set automatically.
  • the display control unit 130 causes the touch panel monitor 78 to display the virtual keyboard in a completely opaque state. In this case, the background image cannot be viewed through the virtual keyboard.
  • the transparency is set to “100%”, the virtual keyboard is completely transparent. In this case, the virtual keyboard cannot be visually recognized.
  • the closer the transparency is to “100%” the closer the transparency of the virtual keyboard is to a completely transparent state. Yes.
  • the appearance of the background image changes according to the transparency.
  • the detection unit 132 is a touch sensor and detects a touch operation (input) to the touch panel monitor 78.
  • a detection method in the touch panel monitor 78 a known method can be employed.
  • a capacitance method, a resistance film method, or the like can be used.
  • the detection unit 132 detects a drag operation when the touch position on the touch panel monitor 78 moves, a release operation when the touch operation on the touch panel monitor 78 is released, and the like.
  • the detection unit 132 detects a touch operation or a drag operation on the virtual trackpad.
  • the detection unit 132 detects touch operations on various buttons.
  • the detection unit 132 detects a touch operation on the virtual keyboard.
  • the detection unit 132 receives input of characters and commands by detecting a touch operation on each element of the virtual keyboard.
  • the display control unit 130 and the detection unit 132 are realized as functions of the CPU block 68 in the BE device 14, for example.
  • FIG. 8 shows an example of a layer structure of an image displayed on the touch panel monitor 78.
  • the layer structure 200 includes a plurality of superimposed layers (hierarchies).
  • the layer 210 is a layer including the virtual keyboard 212.
  • the layer 220 is a layer including an operation button group 222 (icon group).
  • the layer 230 is a layer including an ultrasonic image 232 (an image such as a B-mode tomographic image).
  • layer 210 is the foremost layer
  • layer 220 is the middle layer
  • layer 230 is the backmost layer.
  • this arrangement example is merely an example, and each layer may be arranged in any other order.
  • the display control unit 130 causes the touch panel monitor 78 to display the layer 230. Thereby, the ultrasonic image 232 is displayed on the touch panel monitor 78.
  • the display control unit 130 causes the touch panel monitor 78 to display the layer 210 on the layer 230.
  • the ultrasonic image 232 corresponds to the background image of the virtual keyboard 212.
  • the display control unit 130 sets the transparency of the layer 210 to the designated transparency. Thereby, the transparency of the virtual keyboard 212 is set, and the appearance of the portion where the virtual keyboard 212 is superimposed in the ultrasonic image 232 changes according to the transparency.
  • the transparency is set to “0%”, it is impossible to visually recognize the overlapped portion in the ultrasonic image 232.
  • the transparency is set to “100%”, the virtual keyboard 212 is in a completely transparent state, and the ultrasonic image 232 can be viewed without the virtual keyboard 212 being visible.
  • the transparency is set between 0 and 100%, the appearance of the overlapped portion changes according to the set value.
  • the display control unit 130 displays the layer 220 on the layer 230 on the touch panel monitor 78. Let Thereby, the ultrasonic image 232 and the button group 222 are displayed. When the display positions of the ultrasonic image 232 and the button group 222 overlap, each image is displayed with the button group 222 superimposed on the ultrasonic image 232 in the overlapping portion.
  • the display control unit 130 When the display instruction of the ultrasonic image 232, the virtual keyboard 212, and the button group 222 is given, the display control unit 130 superimposes the layer 220 on the layer 230 and further superimposes the layer 210 on the layer 220, and the touch panel monitor. 78.
  • the layer structure 200 shown in FIG. 8 is an example, and layers other than the layers 210 to 230 may be included in the layer structure 200.
  • FIG. 9 shows a display area of the touch panel monitor 78 when the patient ID is input.
  • the display control unit 130 When inputting the patient ID, the display control unit 130 includes a patient ID input field 140, a patient name input field 142, a patient date of birth input field 144, a gender selection field, and the like in the display area. Display.
  • the input field is designated (for example, a touch operation) by the user
  • the display control unit 130 displays the virtual keyboard 212 on the touch panel monitor 78.
  • the display control unit 130 displays the virtual keyboard 212 while avoiding the display positions of the input fields 140 to 144.
  • the virtual keyboard 212 is displayed below the display area.
  • the virtual keyboard 212 may be displayed above the display area.
  • the display control unit 130 sets the transparency of the virtual keyboard 212 to “0%”.
  • the virtual keyboard 212 is displayed in a completely opaque state.
  • the display control unit 130 may display the virtual keyboard 212 at an arbitrary display position in accordance with a user instruction, and set the transparency of the virtual keyboard 212 to a value designated by the user.
  • FIG. 10 shows a display area of the touch panel monitor 78 during the ultrasonic diagnosis.
  • the display area of the touch panel monitor 78 includes display areas 78A and 78B.
  • the display area 78A corresponds to an examination screen area, and an ultrasound image 232 (for example, a B-mode tomographic image) is displayed in the area.
  • an ultrasound image 232 for example, a B-mode tomographic image
  • the virtual keyboard 212 is displayed in the display area 78A.
  • the virtual keyboard 212 corresponds to a so-called full keyboard including function keys and numeric keys.
  • a keyboard that does not include function keys or numeric keys may be used as the virtual keyboard 212.
  • the virtual keyboard 212 may include keys unique to ultrasonic diagnosis.
  • the virtual keyboard 212 may include up and down arrow keys and diagonal arrow keys.
  • the display area 78B corresponds to an operation area (command area), and a button group 240 (icon group) and a virtual trackpad 242 for inputting various commands are displayed in the area.
  • the button group 240 includes a mode designation button for designating an ultrasonic diagnosis mode, a freeze button for instructing to freeze the ultrasonic image, a store button for instructing to save the ultrasonic image, and gain adjustment. Button, a comment input button for inputting a comment, and the like.
  • the touch operation is detected by the detection unit 132 (touch sensor), and processing corresponding to the button is executed.
  • the virtual trackpad 242 is for realizing on the screen the same operation as that for the trackpad (touchpad).
  • buttons 244 is displayed around the virtual trackpad 242.
  • the button group 244 includes a button corresponding to the “Enter” key, a button corresponding to the “Cancel” key, a button corresponding to the “Select” key, and the like.
  • the virtual keyboard 212 is not displayed in the display area 78B but is displayed in the display area 78A.
  • the display control unit 130 displays the virtual keyboard 212 in the display area 78 A of the touch panel monitor 78. Thereby, it is possible to input a comment using the virtual keyboard 212.
  • a non-display button 214 is provided on the virtual keyboard 212, and when the non-display button 214 is touched by the user, the display control unit 130 hides the virtual keyboard 212.
  • the display control unit 130 may hide the virtual keyboard 212.
  • the virtual keyboard 212 is displayed in the lower area in the display area 78A.
  • the vertical width (width in the height direction) of the virtual keyboard 212 is, for example, less than half the vertical width of the display area 78A.
  • the virtual keyboard 212 is provided with a vertical shift button 216 for shifting the virtual keyboard 212 in the vertical direction (height direction).
  • the display control unit 130 moves the virtual keyboard 212 upward to display it in the upper area.
  • the virtual keyboard 212 may be displayed in the upper area in the default state.
  • the virtual keyboard 212 is displayed in front of the ultrasonic image 232 and is displayed partially overlapping the ultrasonic image 232.
  • the transparency of the virtual keyboard 212 is set between 0% and 100%, for example, according to a user instruction.
  • the display control unit 130 causes the touch panel monitor 78 to display a transparency setting bar (not shown) for setting the transparency between 0 and 100%.
  • the display control unit 130 sets the transparency of the virtual keyboard 212 to a value designated by the user.
  • the transparency of the virtual keyboard 212 is set to “0%”, and the virtual keyboard 212 is displayed in a completely opaque state. In this state, the user cannot observe the superimposed portion of the ultrasonic image 232 through the virtual keyboard 212.
  • the input to the virtual keyboard 212 is valid. For example, when the user performs a touch operation on the virtual keyboard 212, the touch operation is detected by the detection unit 132 (touch sensor), and a character or a command is input.
  • the detection unit 132 touch sensor
  • FIG. 11 shows a virtual keyboard 212 displayed in a semi-transparent state.
  • the virtual keyboard 212 is displayed in a semi-transparent state according to the transparency.
  • the user can observe the superimposed portion of the ultrasonic image 232 through the virtual keyboard 212.
  • a portion indicated by a dashed arrow 232a in FIG. 11 is a portion where the ultrasonic image 232 and the virtual keyboard 212 are superimposed. In that portion, the ultrasonic image 232 is seen through, and the user can observe that portion. Also, the input to the virtual keyboard 212 is valid.
  • the touch operation is detected by the detection unit 132 (touch sensor), and a character or a command is input.
  • the detection unit 132 touch sensor
  • FIG. 12 and 13 show the virtual keyboard 212 displayed in the upper area.
  • the transparency of the virtual keyboard 212 is set to “0%”, and the virtual keyboard 212 is displayed in a completely opaque state. In this state, the user cannot observe the superimposed portion of the ultrasonic image 232 through the virtual keyboard 212.
  • the virtual keyboard 212 is displayed in a translucent state. In this state, the user can observe the superimposed portion of the ultrasonic image 232 through the virtual keyboard 212.
  • a portion indicated by a dashed arrow 232b in FIG. 13 is a portion where the ultrasonic image 232 and the virtual keyboard 212 are superimposed. In that portion, the ultrasonic image 232 is seen through, and the user can observe that portion.
  • the display control unit 130 moves the virtual keyboard 212 downward and displays it in the lower area.
  • the vertical width of the virtual keyboard 212 is less than half the vertical width of the display area 78A. Therefore, the virtual keyboard 212 shifted in the upward direction and the virtual keyboard 212 shifted in the downward direction have no overlapped portion, and the virtual keyboard 212 is shifted in either direction, so that the virtual keyboard 212 shifts in the virtual direction. It is possible to observe the target portion directly, not through the keyboard 212.
  • the display control unit 130 may display the virtual keyboard 212 in an intermediate area between the upper area and the lower area, or display the virtual keyboard 212 at an arbitrary position in the vertical direction (height direction). May be.
  • the display of the virtual keyboard 212 is limited within the display area 78A, and its movement is also limited in the vertical direction.
  • the virtual keyboard 212 may be moved in an arbitrary direction. Note that the virtual keyboard 212 may be reduced or enlarged.
  • the virtual keyboard 212 that can be transparently displayed is displayed. Since the virtual keyboard 212 has transparency, the ultrasonic image 232 can be observed through the virtual keyboard 212 even when the virtual keyboard 212 is displayed superimposed on the ultrasonic image 232. Thereby, in order to avoid the superimposed display of the ultrasonic image 232 and the virtual keyboard 212 in the finite display area 78A, it is not necessary to reduce the ultrasonic image 232 and the virtual keyboard 212, and display them in a large size. It becomes possible. Therefore, it is possible to appropriately observe the ultrasonic image 232 in a large display state, and it is possible to appropriately perform an input operation using the virtual keyboard 212 displayed in a large size. Further, it is not necessary to select and display the elements included in the virtual keyboard 212. For example, the virtual keyboard 212 corresponding to a full keyboard can be used, which is convenient.
  • a third display example of the virtual keyboard will be described with reference to FIGS. 14A, 14B, and 14C.
  • the detection unit 132 touch sensor
  • the detection unit 132 does not detect an input to the virtual keyboard as an invalid input according to the transparency of the virtual keyboard, and detects an input to the background image of the virtual keyboard as a valid input. To do.
  • the layer structure 200 shown in FIG. 8 is adopted. That is, it is assumed that the layer 220 including the button group 222 is disposed on the back side of the layer 210 including the virtual keyboard 212. The display position of the button group 222 and the display position of the virtual keyboard 212 overlap. When the layers 210 and 220 are displayed in an overlapping manner, the virtual keyboard 212 is displayed superimposed on the button group 222.
  • FIG. 14A shows the virtual keyboard 212 with a transparency of “0%”.
  • the virtual keyboard 212 is displayed in the lower area of the display area 78A.
  • an ultrasonic image is not displayed, but as shown in FIG. 10, an ultrasonic image is displayed in the display area 78A. Since the transparency is “0%”, the virtual keyboard 212 is displayed in a completely opaque state. Therefore, the button group 222 existing on the back of the virtual keyboard 212 cannot be visually recognized.
  • the detection unit 132 touch sensor detects a touch operation on the virtual keyboard 212 as an effective key input to the virtual keyboard 212. Thereby, an input using the virtual keyboard 212 is performed.
  • the background button group 222 can be visually recognized through the virtual keyboard 212 as shown in FIG. 14B.
  • the transparency of the virtual keyboard 212 is set to a value between “0%” and “100%” (a value other than 0% and 100%)
  • the virtual keyboard 212 and the button group 222 are displayed together,
  • the button group 222 can be visually recognized through the virtual keyboard 212.
  • the detection unit 132 detects a touch operation on the virtual keyboard 212 as a valid key input to the virtual keyboard 212. Thereby, an input using the virtual keyboard 212 is performed.
  • the detection unit 132 does not detect the touch operation on the overlapped portion of the virtual keyboard 212 and the button group 222 as an effective input to the button group 222, and does not detect the effective operation on the virtual keyboard 212 displayed on the front surface. Detect as key input.
  • the virtual keyboard 212 becomes completely transparent. In this case, as shown in FIG. 14C, the virtual keyboard 212 cannot be visually recognized (for convenience of explanation, the virtual keyboard 212 is shown by a broken line in FIG. 14C). Only the button group 222 as an image is displayed. In this case, the detection unit 132 does not detect a touch operation to the place where the virtual keyboard 212 is disposed as a valid key input to the virtual keyboard 212 but as a valid input to the button group 222 on the back. To do. Thereby, even when the layer 210 including the virtual keyboard 212 is arranged in front of the layer 220 including the button group 222, the input to the button group 222 is detected as an effective input.
  • the layer 210 including the virtual keyboard 212 is arranged in front of the layer 220 including the button group 222. Therefore, even when the virtual keyboard 212 is completely transparent and only the button group 222 is displayed on the overlapped portion, if the input to the virtual keyboard 212 is not invalidated, the touch operation to the button group 222 is performed. However, this is detected as a valid key input to the virtual keyboard 212. In a state where the virtual keyboard 212 cannot be viewed and the button group 222 can be viewed, if the user's consciousness is reasonably estimated, a touch operation on the button group 222 (superimposed portion) means an input operation on the button group 222. I guess that.
  • the touch operation on the button group 222 is not detected as a key input to the virtual keyboard 212 but is detected as an effective input to the button group 222. Thereby, erroneous input to the keyboard is prevented, and appropriate input to the button group 222 is possible.
  • the detection unit 132 does not detect the touch operation as an effective key input to the virtual keyboard 212 when the transparency is equal to or higher than the reference value. In addition, it may be detected as an effective input to the button group 222.
  • the reference value is, for example, a preset value and may be changed by the user.
  • FIGS. 15A and 15B A fourth display example of the virtual keyboard will be described with reference to FIGS. 15A and 15B.
  • the display position of the virtual keyboard is changed according to the position of interest (for example, a sample volume used for Doppler measurement) or the position of the region of interest (ROI: region of interest) set for the ultrasound image. Be changed.
  • the position of interest for example, a sample volume used for Doppler measurement
  • ROI region of interest
  • the display control unit 130 displays the region of interest 234 on the ultrasonic image 232 as shown in FIG. 15A, for example.
  • the display position, shape, size, and the like of the region of interest 234 are specified by the user, for example.
  • the region of interest 234 is displayed in the upper area of the display area 78A.
  • the display control unit 130 displays the virtual keyboard 212 in the lower area of the display area 78A.
  • FIG. 15B when the region of interest 234 is displayed in the lower area of the display area 78A according to the user's instruction, the display control unit 130 displays the virtual keyboard 212 in the upper area of the display area 78A. .
  • the vertical position of the virtual keyboard 212 is selected according to the vertical position (height direction) of the region of interest 234. Even when a sample volume is set on the ultrasound image 232, the vertical position of the virtual keyboard 212 is selected according to the vertical position of the sample volume.
  • the virtual keyboard 212 is displayed by automatically avoiding the display position of the region of interest or the sample volume. This makes it easy for the user to see the region of interest and the sample volume, and makes their settings easy.
  • the display control unit 130 may display the virtual keyboard 212 in an intermediate area between the upper area and the lower area, avoiding the display position of the region of interest or the sample volume, or in the vertical direction (height direction).
  • the virtual keyboard 212 may be displayed at an arbitrary position.
  • a distance sensor 134 is used.
  • the distance sensor 134 is installed in the vicinity of the touch panel monitor 78 of the BE device 14, for example, and detects the distance between the touch panel monitor 78 and the user (inspector). The detected value is output to the display control unit 130.
  • an optical sensor, an ultrasonic sensor, a magnetic sensor, or the like can be used as the distance sensor 134.
  • the display control unit 130 changes the transparency of the virtual keyboard 212 according to the detection value of the distance sensor 134 (the distance between the touch panel monitor 78 and the user). For example, the display control unit 130 decreases the transparency of the virtual keyboard 212 as the distance between the touch panel monitor 78 and the user decreases. Thereby, the visibility of the virtual keyboard 212 is improved. On the other hand, as the distance between the touch panel monitor 78 and the user increases, the display control unit 130 increases the transparency of the virtual keyboard 212. Thereby, the visibility of an ultrasonic image improves. That is, as the user approaches the touch panel monitor 78, the transparency of the virtual keyboard 212 decreases, and as the user moves away from the touch panel monitor 78, the transparency of the virtual keyboard 212 increases.
  • the display control unit 130 changes the transparency of the virtual keyboard 212 in stages according to the distance between the touch panel monitor 78 and the user (for example, the transparency is switched in a plurality of stages).
  • the display control unit 130 sets the transparency of the virtual keyboard 212 to the first transparency when the distance between the touch panel monitor 78 and the user is equal to or smaller than the predetermined value, and when the distance becomes larger than the predetermined value, the transparency May be set to a second transparency greater than the first transparency.
  • two transparency may be switched according to distance, and three or more transparency may be switched in steps.
  • the display control unit 130 may display the error message with priority over the virtual keyboard 212. In this case, even if the virtual keyboard 212 is displayed on the touch panel monitor 78, the display control unit 130 displays an error message in front of the virtual keyboard 212. As a result, when the display positions of the virtual keyboard 212 and the error message overlap, the error message is displayed superimposed on the virtual keyboard 212. Further, as long as an operation for hiding the error message is not performed, the detection unit 132 may not detect a touch operation on the virtual keyboard 212 as a valid key input.
  • ultrasonic diagnostic system 10 ultrasonic diagnostic system, 12 FE device, 14 BE device, 78 touch panel monitor, 130 display control unit, 132 detection unit, 134 distance sensor, 212 virtual keyboard, 222 button group, 232 ultrasonic image.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 タッチパネルモニタの表示エリア内には超音波画像が表示される。表示指示が与えられると、表示エリア内にバーチャルキーボードが表示される。バーチャルキーボードは超音波画像よりも前面に表示されており、バーチャルキーボードと超音波画像とは部分的に重畳している。タッチパネルモニタはタッチセンサを備えており、バーチャルキーボードへのタッチ操作が、バーチャルキーボードへのキー入力として検知される。バーチャルキーボードは透明表示可能な画像であるため、バーチャルキーボードを通して背景画像としての超音波画像を観察することができる。

Description

超音波診断装置及び超音波画像表示方法
 本発明は超音波診断装置に関し、特に、バーチャルキーボードが用いられる超音波診断装置に関する。
 超音波診断装置は、生体に対する超音波の送受波により得られた受信信号に基づいて超音波画像を形成する装置である。超音波診断装置においては、ハードウェアキーボードや表示装置に表示されたバーチャルキーボード(ソフトウェアキーボード)を用いることにより、患者IDやコメント等が入力されることがある。
 特許文献1に記載の超音波システムにおいては、画像キーボード映像がディスプレイ部の画面の一部分に表示される。
特開2010-17558号公報
 表示装置の画面のサイズは有限であるため、その画面の大きさによっては、バーチャルキーボードが超音波画像に重なってしまい、超音波画像がバーチャルキーボードによって覆われて超音波画像の観察が困難になるという問題が生じ得る。これに対処するために、超音波画像とバーチャルキーボードとが重ならないように超音波画像やバーチャルキーボードを縮小表示することが考えられるが、超音波画像の観察やバーチャルキーボードを利用した入力操作に不便をきたすという問題が生じ得る。
 本発明の目的は、超音波診断装置において、バーチャルキーボードを利用した入力と超音波画像の観察とが適切に行われるようにすることにある。
 本発明に係る超音波診断装置は、超音波の送受波により得られた受信信号に基づいて形成された超音波画像を表示する表示部と、超音波画像が表示される表示画面内に、透明表示可能なバーチャルキーボードを表示する制御を実行する表示制御部と、前記表示画面上の前記バーチャルキーボードへの入力を検知する検知部と、を含むことを特徴とする。
 バーチャルキーボードは透明性を有するため、超音波画像上にバーチャルキーボードが重畳して表示される場合であっても、バーチャルキーボードを通して、背景画像としての超音波画像を観察することが可能となる。これにより、有限な表示エリア内において、バーチャルキーボードと超音波画像との重畳表示を回避するために、超音波画像やバーチャルキーボードを縮小表示せずに済み、各表示要素を大きく表示することが可能となる。それ故、超音波画像を適切に観察しつつ、バーチャルキーボードによって入力操作を適切に行うことが可能となる。また、表示エリア内の各表示要素を選択して表示せずに済む。
 望ましくは、前記バーチャルキーボードの透明度が可変である。これにより、バーチャルキーボードの透明度を適宜変えて、超音波画像の観察とバーチャルキーボードへの入力とを行うことが可能となる。
 望ましくは、前記表示制御部は、シフト指示に応じて、前記表示画面内で前記バーチャルキーボードを上方向又は下方向にシフトさせる。例えば、超音波画像上の注目部分を避けてバーチャルキーボードを表示させることができる。
 望ましくは、前記表示制御部は、前記バーチャルキーボードを上方向又は下方向にシフトさせるためのボタン画像を前記表示部に表示させる。これにより、簡易な操作によってバーチャルキーボードの表示位置を変更することができる。
 望ましくは、前記検知部は、前記バーチャルキーボードの透明度が所定条件を満たす場合に、前記バーチャルキーボードの表示エリア内への入力を、前記バーチャルキーボードの背景画像に対する入力として検知する。これにより、バーチャルキーボードへの誤入力が防止され、背景画像に対する入力が有効な入力として検知される。
 望ましくは、前記表示部とユーザーとの間の距離を検知する距離センサを更に含み、前記表示制御部は、検知された距離に応じて、前記バーチャルキーボードの透明度を変更する。これにより、検査者等のユーザーの状況に応じて、バーチャルキーボードや超音波画像の視認性が変化する。
 望ましくは、前記表示制御部は、前記表示部とユーザーとの距離が遠い場合における前記バーチャルキーボードの透明度を、前記表示部とユーザーとの距離が近い場合における前記バーチャルキーボードの透明度よりも増大させる。これにより、検査者等のユーザーが表示部に近づくと、透明度が低下してバーチャルキーボードの視認性が向上する。一方、ユーザーが表示部から遠ざかると、透明度が増大してバーチャルキーボードの視認性が低下し、これによって、超音波画像の視認性が向上する。
 望ましくは、前記表示制御部は、超音波画像に対して設定された関心点又は関心領域の位置に応じて、前記バーチャルキーボードの表示位置を変更する。
 本発明に係る超音波画像表示方法は、超音波の送受波により得られた受信信号に基づいて形成された超音波画像を表示装置に表示させ、超音波画像が表示される表示画面内に、透明表示可能なバーチャルキーボードを表示する制御を実行する工程と、前記表示画面上の前記バーチャルキーボードへの入力操作を検知する工程と、を含むことを特徴とする。
 本発明によれば、超音波診断装置において、バーチャルキーボードを利用した入力と超音波画像の観察とが適切に行われるようになる。
本発明に係る超音波診断システムの好適な実施形態を示す概念図である。 セパレート状態にある超音波診断システムの斜視図である。 ドッキング状態にある超音波診断システムの斜視図である。 フロントエンド装置のブロック図である。 バックエンド装置のブロック図である。 ドッキング状態での通信方式とセパレート状態での通信方式を示す図である。 タッチパネルモニタの表示制御に関する構成を示すブロック図である。 画像のレイヤー構造を示す図である。 バーチャルキーボードの第1表示例を示す図である。 バーチャルキーボードの第2表示例を示す図である。 バーチャルキーボードの第2表示例を示す図である。 バーチャルキーボードの第2表示例を示す図である。 バーチャルキーボードの第2表示例を示す図である。 バーチャルキーボードの第3表示例を示す図である。 バーチャルキーボードの第3表示例を示す図である。 バーチャルキーボードの第3表示例を示す図である。 バーチャルキーボードの第4表示例を示す図である。 バーチャルキーボードの第4表示例を示す図である。 タッチパネルモニタの表示制御に関する別の構成を示すブロック図である。
 以下、本発明の好適な実施形態を図面に基づいて説明する。
(1)超音波診断システム
 図1には、本発明に係る超音波診断システムの概略的構成が示されている。超音波診断システム10は、病院等の医療機関で使用される医療機器であり、被検者(生体)に対して超音波診断を行うためのものである。超音波診断システム10は、大別して、フロントエンド(FE)装置12、バックエンド(BE)装置14、及び、プローブ16により構成されている。FE装置12は生体から見て近い装置であり、BE装置14は生体から見て遠い装置である。FE装置12及びBE装置14は、別体化されており、それぞれが可搬型装置を構成している。FE装置12及びBE装置14は、それらが離れたセパレート状態において動作可能であり、また、それらが結合したドッキング状態で動作可能である。なお、図1はセパレート状態を示している。
 プローブ16は、生体表面に当接された状態において超音波の送受波を行う送受波器である。プローブ16は、直線状又は円弧状に配列された複数の振動素子からなる1Dアレイ振動子を備えている。アレイ振動子によって超音波ビームが形成され、それが繰り返し電子走査される。電子走査ごとに生体内にビーム走査面が形成される。電子走査方式として、電子リニア走査方式、電子セクタ走査方式、等が知られている。1Dアレイ振動子に代えて三次元エコーデータ取込空間を形成可能な2Dアレイ振動子を設けることも可能である。図1に示す構成例では、プローブ16はケーブル28を介してFE装置12に接続されている。プローブ16が無線通信によってFE装置12に接続されてもよい。その場合にはワイヤレスプローブが利用される。複数のプローブがFE装置12に接続された状態において、それらの中から実際に使用するプローブ16が選択されてもよい。体腔内に挿入されるプローブ16がFE装置12に接続されてもよい。
 FE装置12とBE装置14は、図1に示すセパレート状態において、無線通信方式により電気的に相互に接続される。本実施形態では、それらの装置は第1無線通信方式及び第2無線通信方式により相互に接続されている。図1においては、第1無線通信方式による無線通信経路18及び第2無線通信方式による無線通信経路20が明示されている。 第1無線通信方式は第2無線通信方式に比べて高速であり、本実施形態では、その方式を利用してFE装置12からBE装置14へ超音波受信データが伝送される。すなわち、第1無線通信方式がデータ伝送用として利用されている。第2無線通信方式は第1無線伝送方式よりも低速、簡易な通信方式であり、本実施形態では、その方式を利用してBE装置14からFE装置12へ制御信号が伝送される。すなわち、第2無線通信方式が制御用として利用されている。
 FE装置12とBE装置14とが物理的に結合されたドッキング状態においては、FE装置12とBE装置14とが有線通信方式により電気的に接続される。上記2つの無線通信方式に比べて、有線通信方式はかなり高速である。図1においては、2つの装置間に有線通信経路22が示されている。電源経路26は、ドッキング状態において、FE装置12からBE装置14内へ直流電力を供給するためのものである。その電力がBE装置14の稼働で用いられ、また、BE装置14内のバッテリの充電で用いられる。
 符号24はACアダプタ(AC/DCコンバータ)から供給されるDC電源ラインを示している。ACアダプタは必要に応じてFE装置12に接続される。FE装置12もバッテリを内蔵しており、バッテリを電源としつつ稼働することが可能である。FE装置12は後に示すようにボックス状の形態を有している。FE装置12の構成及び動作については後に詳述する。
 一方、BE装置14は、本実施形態においてタブレット形態あるいは平板状の形態を有している。それは基本的には一般的なタブレットコンピュータと同様の構成を備えている。もっとも、BE装置14には、超音波診断用の各種の専用ソフトウエアが搭載されている。それには、動作制御プログラム、画像処理プログラム、等が含まれる。BE装置14は、タッチセンサ付きの表示パネル30を有している。それは入力器及び表示器を兼ねたユーザーインターフェイスとして機能する。図1においては、表示パネル30上に超音波画像としてのBモード断層画像32が表示されている。ユーザーは、表示パネル30上に表示されたアイコン群を利用して各種の入力を行う。表示パネル30上において、スライド操作や拡大操作等を行うことも可能である。
 診断用途、検査者の嗜好等に応じて、セパレート状態及びドッキング状態の内で選択された使用態様で、超音波診断システム10を動作させることが可能である。よって、使い勝手の良好な超音波診断システムを提供できる。
 状態変更に際して超音波診断システム10の動作が不安定あるいは不適正にならないように、本実施形態では、状態変更に際して超音波診断システム10を強制的にフリーズ状態とする制御が実行される。具体的には、セパレート状態からドッキング状態へ移行する過程で、両装置間の距離を指標する電波強度あるいは受信状態に基づいて、FE装置12及びBE装置14のそれぞれにおいてドッキング直前が判定され、その判定に従って個々の装置12,14において動作状態をフリーズ状態へ遷移させる制御が実行される。ドッキング状態の形成後かつ検査者によるフリーズ解除の操作後に、それらの装置12,14のフリーズ状態が解除される。ちなみに、ドッキング状態からセパレート状態へ移行する過程では、セパレート状態になったことが抜線検出その他の手法によりFE装置12及びBE装置14で個別的に検出され、それらがフリーズ状態となる。その後のフリーズ解除の操作後に、それらの装置12,14のフリーズ状態が解除される。
 なお、BE装置14は、病院内LANに対して無線通信方式及び有線通信方式によって別途接続され得る。それらの通信経路については図示省略されている。BE装置14(又はFE装置12)が、超音波診断のために機能する他の専用装置(例えばリモートコントローラ)に無線通信方式又は有線通信方式により、別途接続されてもよい。
 図2にはセパレート状態が示されている。FE装置12は、例えば机の上に載置されている。FE装置12は、差込口(スロット)を有するホルダ34を有している。ホルダ34はヒンジ機構を有しており、水平軸周りにおいて回転可能である。FE装置12の特定側面にはプローブケーブルの端部に設けられているコネクタが装着されている。FE装置12の内部にプローブ等を収容する部屋を形成してもよい。そのような構成によれば、超音波診断システムの運搬時において便利であり、またプローブを保護できる。図2において、BE装置14は、FE装置12から分離されており、無線通信を行える限りにおいて、BE装置14をFE装置12から更に大きく離すことが可能である。
 図3にはドッキング状態が示されている。ホルダ34の差込口に対してBE装置14の下端部が差し込まれている。その差込状態において、FE装置12とBE装置14とが有線接続状態となる。つまり、両者が有線LANで接続され、また両者が有線電源ラインで接続される。ドッキング状態においては、BE装置14の角度を任意に可変して、その姿勢を変えることが可能である。BE装置14を完全にその背面側(FE装置12の上面側)に倒すことも可能である。
(2)フロントエンド装置
 図4はFE装置12のブロック図である。図中の個々のブロックは、プロセッサ、電子回路等のハードウエアによって構成される。送信信号生成回路38は、プローブ接続回路40を介して、プローブ内の複数の振動素子に対して並列的に複数の送信信号を供給する回路である。この供給によりプローブにおいて送信ビームが形成される。生体内からの反射波が複数の振動素子で受波されると、それらから複数の受信信号が出力され、複数の受信信号がプローブ接続回路40を介して受信信号処理回路42に入力される。受信信号処理回路42は、複数のプリアンプ、複数のアンプ、複数のA/D変換器、等を備える。受信信号処理回路42から出力された複数のデジタル受信信号が受信ビームフォーマ46に送られる。受信ビームフォーマ46は、複数のデジタル受信信号に対して整相加算処理を適用し、整相加算後の信号としてビームデータを出力する。そのビームデータは受信ビームに対応する深さ方向に並ぶ複数のエコーデータからなるものである。なお、1つの電子走査で得られた複数のビームデータによって受信フレームデータが構成される。
 送受信コントローラ44は、BE装置14から送られてきた送受信制御データに基づいて、送信信号生成及び受信信号処理を制御するものである。ビームプロセッサ50は、時系列順で入力される個々のビームデータに対して、検波処理、対数変換処理、相関処理等の各種のデータ処理を施す回路である。制御部52は、FE装置12の全体動作を制御している。この他、ビームプロセッサ50から順次送られてくるビームデータをBE装置14へ有線伝送又は無線伝送するための制御を実行している。本実施形態では、制御部52は、有線通信器としても機能している。無線通信器54は第1無線通信方式で通信を行うためのモジュールである。無線通信器56は第2無線通信方式で通信を行うためのモジュールである。符号18は第1無線通信方式に従う無線通信経路を示しており、符号20は第2無線通信方式に従う無線通信経路を示している。それぞれは双方向伝送経路であるが、本実施形態では、前者を利用してFE装置12からBE装置14へ大量の受信データが伝送され、後者を利用してBE装置14からFE装置12へ制御信号が伝送される。符号64は有線通信用端子を示しており、そこには有線通信経路22が接続される。符号66は電源用端子を示しており、そこには電源ライン26が接続される。電源ライン26は上記のようにFE装置12からBE装置14へ直流電力を供給するためのラインである。
 バッテリ60は例えばリチウムイオン型のバッテリであり、そこにおける充放電は電源コントローラ58によって制御される。バッテリ駆動時において、バッテリ60からの電力が電源コントローラ58を介して、FE装置12内の各回路へ供給される。符号62はACアダプタ接続時における電源ラインを示している。ACアダプタ接続時には電源コントローラ58の作用によって、外部電力がFE装置12内の各回路へ供給される。その際、バッテリ60の充電量が100%未満であれば、外部電力を用いてバッテリ60が充電される。
 超音波診断動作時(送受信時)において、FE装置12は、BE装置14側での制御に従い、プローブに対する複数の送信信号の供給と、その後に得られる複数の受信信号の処理と、を繰り返し実行する。これにより得られる時系列順のビームデータが、セパレート状態では無線通信により、ドッキング状態では有線通信により、BE装置14へ順次伝送される。その際においては個々のビームデータが複数のパケットに変換され、いわゆるパケット伝送方式により、個々のビームデータが伝送される。
 なお、動作モードとしては、Bモードの他、CFMモード、Mモード、Dモード(PWモード、CWモード)等の各種のモードが知られている。高調波イメージングや弾性情報イメージング用の送受信処理が実行されてもよい。図4においては生体信号入力回路等の回路が図示省略されている。
(3)バックエンド装置
 図5はBE装置14のブロック図である。図中、各ブロックはプロセッサ、回路、メモリ等のハードウエアを示している。CPUブロック68は、CPU70、内部メモリ72等を備えている。内部メモリ72はワーキングメモリ、あるいは、キャッシュメモリとして機能する。CPUブロック68に接続された外部メモリ80には、OS、各種の制御プログラム、各種の処理プログラム等が格納されている。後者にはスキャンコンバート処理プログラムが含まれる。その外部メモリ80は、リングバッファ構造を有するシネメモリとしても機能する。内部メモリ72上にシネメモリが構成されてもよい。
 CPUブロック68は、複数のビームデータに基づくスキャンコンバート処理により表示フレームデータを生成する。それは超音波画像(例えば断層画像)を構成するものである。その処理が順次実行され、動画像が生成される。CPUブロック68は、超音波画像表示のための各種の処理をビームデータ又は画像に施す。その他、BE装置14の動作を制御し、また、超音波診断システム全体を制御している。
 タッチパネルモニタ(表示パネル)78は、入力デバイス及び表示デバイスとして機能する。具体的には、タッチパネルモニタ78は、液晶表示器及びタッチセンサを備え、ユーザーインターフェイスとして機能する。タッチパネルモニタ78には超音波画像を含む表示画像が表示され、また、バーチャルキーボード(ソフトウェアキーボード)や操作用の各種ボタン(アイコン)が表示される。
 無線通信器74は、第1無線通信方式に従って無線通信を行うためのモジュールである。その際の無線通信経路が符号18で示されている。無線通信器76は、第2無線通信方式に従って無線通信を行うためのモジュールである。その際の無線通信経路が符号20で示されている。CPUブロック68は有線通信方式に従って有線通信を行う機能も備えている。ドッキング状態においては、有線通信端子92に有線通信ラインが接続される。また、電源端子94に電源ライン26が接続される。
 CPUブロック68には、I/F回路82を介して、複数の検出器84~90が接続されている。それには照度センサ、近接センサ、温度センサ、距離センサ等が含まれてもよい。GPS等のモジュールが接続されてもよい。I/F回路82はセンサコントローラとして機能する。
 バッテリ102はリチウムセラミック型のバッテリであり、その充放電は電源コントローラ100によって制御されている。電源コントローラ100は、バッテリ動作時においてバッテリ102からの電力をBE装置14内の各回路に供給する。非バッテリ動作時において、FE装置12から供給された電力、又は、ACアダプタから供給された電力をBE装置14内の各回路に供給する。符号104はACアダプタを経由した電源ラインを示している。
 BE装置14は、FE装置12を制御しつつ、FE装置12から送られてくるビームデータを順次処理して超音波画像を生成し、それをタッチパネルモニタ78に表示する。その際においては超音波画像と共に操作用グラフィック画像も表示される。通常のリアルタイム動作においては、BE装置14とFE装置12とが無線又は有線で電気的に接続され、両者の同期が図られつつ、超音波診断動作が継続的に実行される。フリーズ状態においては、BE装置14において送信信号生成回路、受信信号生成回路の動作が停止され、電源コントローラ100における昇圧回路の動作も停止する。BE装置14においては、フリーズ時点で静止画像表示となり、その内容が維持される。BE装置14に外部表示器を接続できるように構成してもよい。
(4)通信方式
 図6には、ドッキング状態118及びセパレート状態120で利用される通信方式が整理されている。符号110は第1無線通信方式を示しており、符号112は第2無線通信方式を示している。符号114は有線通信方式を示している。符号116は無線通信方式の内容を示している。ドッキング状態118においては、有線通信が選択され、FE装置12及びBE装置14において、第1無線通信器及び第2無線通信器は動作休止状態となる。これにより省電力が図られる。一方、セパレート状態120においては、無線通信が選択され、FE装置12及びBE装置14において、第1無線通信器及び第2無線通信器が動作する。その際、有線通信系統は動作休止状態となる。なお、第1無線通信方式110は第2無線通信方式112に比べて高速である。逆に言えば、第2無線通信方式112は第1無線通信方式110に比べて低速であるが、簡易かつ安価であり、消費電力が低い。有線通信方式としてはEthernet(登録商標)上のTCP/IPプロトコルがあげられる。第1有線通信方式としてはIEEE802.11があげられ、第2無線通信方式としてはIEEE802.15.1があげられる。それらは例示であり、他の通信方式を利用可能である。いずれにしてもセキュアな通信方式を利用するのが望ましい。
 本実施形態において、第2無線通信方式112に従う無線通信器は、受信強度(つまり距離)に応じて送信パワーを自動的に可変する機能を備えている。つまり、BE装置14へFE装置12が近接した場合に両装置それぞれ送信パワーを下げる制御が自動的に実行される。よって、設定されている送信パワーから、両装置が近接したことを判定することが可能である。それに代えて、受信強度、受信エラーレート等から2つの装置が近接したことを判定することも可能である。更には近接センサを利用することも可能である。上記構成において、BE装置14自体が超音波診断装置として機能し、また、FE装置12とBE装置14とを組み合わせたシステムも超音波診断装置として機能する。
(5)バーチャルキーボード
 上記BE装置14はバーチャルキーボードを表示する機能を備える。以下、その機能について説明する。本実施形態においては、必要に応じてバーチャルキーボード(ソフトウェアキーボード)がタッチパネルモニタ78に表示される。バーチャルキーボードは、タッチパネルモニタ78上においてユーザーによる入力を受け付けるキーボードである。
 図7には、タッチパネルモニタの表示制御に関する構成が示されている。表示制御部130は、超音波画像、操作用の各種ボタン(アイコン)、バーチャルトラックパッド、バーチャルキーボード等を、タッチパネルモニタ78に表示させる。例えば、表示制御部130は、タッチパネルモニタ78上において、超音波画像が表示される表示エリア内にバーチャルキーボードを表示させる。このバーチャルキーボードのデータは、例えば、CPUブロック68内の内部メモリ72や外部メモリ80に予め記憶されている。
 本実施形態に係るバーチャルキーボードは透明表示可能な画像であり、その透明度は可変である。透明度は、例えば0%~100%の間で変更可能な値である。この透明度は、ユーザーによって設定されてもよいし、自動的に設定されてもよい。透明度が「0%」に設定されると、表示制御部130は、完全に不透明な状態でバーチャルキーボードをタッチパネルモニタ78に表示させる。この場合、バーチャルキーボードを通して背景画像を視認することはできなくなる。一方、透明度が「100%」に設定されると、バーチャルキーボードは完全に透明な状態となる。この場合、バーチャルキーボードを視認することはできなくなる。透明度が「0%」に近い値ほど、バーチャルキーボードの透明度合いは不透明な状態に近づいていき、透明度が「100%」に近い値ほど、バーチャルキーボードの透明度合いは完全に透明な状態に近づいている。透明度に応じて、背景画像の見え具合が変化することになる。
 検知部132はタッチセンサであり、タッチパネルモニタ78へのタッチ操作(入力)を検知する。タッチパネルモニタ78における検出方式としては、公知の方法を採用することができる。代表的な方式として、静電容量方式や抵抗膜方式等を利用することができる。検知部132は、タッチパネルモニタ78へのタッチ位置が移動したときのドラッグ操作や、タッチパネルモニタ78へのタッチ操作が離れたときのリリース操作等を検知する。例えば、検知部132は、バーチャルトラックパッドへのタッチ操作やドラッグ操作等を検知する。また、検知部132は、各種ボタンへのタッチ操作を検知する。バーチャルキーボードがタッチパネルモニタ78に表示されている場合、検知部132は、バーチャルキーボードへのタッチ操作を検知する。検知部132は、バーチャルキーボードの各要素へのタッチ操作を検知することにより、文字や命令の入力を受け付ける。
 表示制御部130と検知部132は、BE装置14において例えばCPUブロック68の機能として実現される。
 図8には、タッチパネルモニタ78に表示される画像のレイヤー構造の一例が示されている。レイヤー構造200は、重畳された複数のレイヤー(階層)を含む。レイヤー210はバーチャルキーボード212を含むレイヤーである。レイヤー220は操作用のボタン群222(アイコン群)を含むレイヤーである。レイヤー230は超音波画像232(Bモード断層画像等の画像)を含むレイヤーである。一例として、レイヤー210が最前面のレイヤーであり、レイヤー220が中間のレイヤーであり、レイヤー230が最背面のレイヤーである。もちろん、この配置例は一例であり、これ以外の順番によって各レイヤーが配置されてもよい。
 例えば、超音波画像232の表示指示が与えられ、バーチャルキーボード212及びボタン群222の表示指示が与えられていない場合、表示制御部130は、レイヤー230をタッチパネルモニタ78に表示させる。これにより、超音波画像232がタッチパネルモニタ78に表示される。この状態でバーチャルキーボード212の表示指示が与えられると、表示制御部130は、レイヤー230上にレイヤー210を重ねてタッチパネルモニタ78に表示させる。超音波画像232はバーチャルキーボード212の背景画像に相当する。超音波画像232とバーチャルキーボード212との表示位置が重なっている場合、その重なっている部分においては、超音波画像232にバーチャルキーボード212が重畳された状態で各画像が表示される。表示制御部130は、レイヤー210の透明度を、指定された透明度に設定する。これにより、バーチャルキーボード212の透明度が設定され、その透明度に応じて、超音波画像232においてバーチャルキーボード212が重畳している部分の見え方が変化する。透明度が「0%」に設定されると、超音波画像232における重畳部分を視認することができなくなる。透明度が「100%」に設定されると、バーチャルキーボード212は完全に透明な状態となり、バーチャルキーボード212が見えない状態で超音波画像232を視認することが可能となる。透明度が0~100%の間に設定されると、その設定値に応じて、重畳部分の見え具合が変化する。
 また、超音波画像232及びボタン群222の表示指示が与えられ、バーチャルキーボード212の表示指示が与えられていない場合、表示制御部130は、レイヤー230上にレイヤー220を重ねてタッチパネルモニタ78に表示させる。これにより、超音波画像232とボタン群222とが表示される。超音波画像232とボタン群222との表示位置が重なっている場合、その重なっている部分においては、超音波画像232にボタン群222が重畳された状態で各画像が表示される。
 また、超音波画像232、バーチャルキーボード212及びボタン群222の表示指示が与えられた場合、表示制御部130は、レイヤー230上にレイヤー220を重ね、更にレイヤー220上にレイヤー210を重ねてタッチパネルモニタ78に表示させる。
 図8に示されているレイヤー構造200は一例であり、レイヤー210~230以外のレイヤーがレイヤー構造200に含まれていてもよい。
 以下、バーチャルキーボードの詳細について説明する。
(第1表示例)
 図9を参照して、バーチャルキーボードの第1表示例について説明する。図9には、患者IDの入力時におけるタッチパネルモニタ78の表示エリアが示されている。患者IDの入力時においては、表示制御部130は、表示エリア内に、患者IDの入力欄140、患者氏名の入力欄142、患者の生年月日の入力欄144、性別の選択欄、等を表示させる。この状態で入力欄がユーザーによって指定(例えばタッチ操作)されると、表示制御部130は、バーチャルキーボード212をタッチパネルモニタ78上に表示させる。これにより、バーチャルキーボード212を利用した患者ID等の入力が可能となる。例えば、表示制御部130は、入力欄140~144の表示位置を避けて、バーチャルキーボード212を表示させる。図9に示す例では、表示エリアの上側に入力欄140~144が表示されているため、表示エリアの下側にバーチャルキーボード212が表示されている。表示エリアの下側に入力欄140~144が表示される場合には、表示エリアの上側にバーチャルキーボード212が表示されてもよい。患者IDの入力時においては、バーチャルキーボード212に対して重複する画像が存在しないため、表示制御部130は、バーチャルキーボード212の透明度を「0%」に設定する。これにより、バーチャルキーボード212は、完全に不透明な状態で表示される。もちろん、表示制御部130は、ユーザーの指示に従って、任意の表示位置にバーチャルキーボード212を表示させ、バーチャルキーボード212の透明度をユーザーによって指定された値に設定してもよい。
(第2表示例)
 図10から図13を参照して、バーチャルキーボードの第2表示例について説明する。図10には、超音波診断中におけるタッチパネルモニタ78の表示エリアが示されている。超音波診断中においては、タッチパネルモニタ78の表示エリアは、表示エリア78A,78Bを含んでいる。
 表示エリア78Aは検査画面エリアに相当し、そのエリア内には超音波画像232(例えばBモード断層画像)が表示される。また、バーチャルキーボード212の表示指示が与えられた場合、表示エリア78A内にバーチャルキーボード212が表示される。バーチャルキーボード212は、一例として、ファンクションキーやテンキー等をも備えた、いわゆるフルキーボードに相当する。もちろん、ファンクションキーやテンキーを含まないキーボードが、バーチャルキーボード212として利用されてもよい。また、超音波診断に特有のキーがバーチャルキーボード212に含まれていてもよい。例えば、上下方向や斜め方向の矢印キー等が、バーチャルキーボード212に含まれていてもよい。
 表示エリア78Bは操作エリア(コマンドエリア)に相当し、そのエリア内には、各種コマンドを入力するためのボタン群240(アイコン群)やバーチャルトラックパッド242が表示されている。ボタン群240には、超音波診断のモードを指定するためのモード指定ボタン、超音波画像のフリーズを指示するためのフリーズボタン、超音波画像の保存を指示するためのストアボタン、ゲイン調整のためのボタン、コメントを入力するためのコメント入力ボタン、等が含まれる。ユーザーによって各ボタンへのタッチ操作が行われると、検知部132(タッチセンサ)によってそのタッチ操作が検知され、そのボタンに対応する処理が実行される。バーチャルトラックパッド242は、トラックパッド(タッチパッド)に対する操作と同様の操作を画面上で実現するためのものである。このバーチャルトラックパッド242に対してドラッグ操作を行うことにより、表示エリア78A内に表示されているポインタ246を、ドラッグ方向に対してドラッグ量に応じた距離だけ移動させることができる。もちろん、ポインタ246に対して直接ドラッグ操作を行うことにより、ポインタ246を直接移動させることもできる。バーチャルトラックパッド242の周辺には、ボタン群244が表示されている。ボタン群244には、「Enter」キーに相当するボタンや、「Cancel」キーに相当するボタン、「Select」キーに相当するボタン、等が含まれる。
 本実施形態では、表示エリア78Bに表示されているボタン群240との干渉を回避するために、バーチャルキーボード212は、表示エリア78B内には表示されず、表示エリア78A内に表示される。
 例えば、コメント入力欄がユーザーによって指定(例えばタッチ操作)されると、表示制御部130は、バーチャルキーボード212をタッチパネルモニタ78の表示エリア78A内に表示させる。これにより、バーチャルキーボード212を利用したコメントの入力が可能となる。また、非表示ボタン214がバーチャルキーボード212に設けられており、その非表示ボタン214がユーザーによってタッチ操作されると、表示制御部130は、バーチャルキーボード212を非表示にする。または、バーチャルキーボード212以外の領域に対してタッチ操作が行われると、表示制御部130は、バーチャルキーボード212を非表示にしてもよい。
 デフォルトの状態では、一例として、バーチャルキーボード212は、表示エリア78A内の下部エリアに表示される。バーチャルキーボード212の縦幅(高さ方向の幅)は、例えば、表示エリア78Aの縦幅の半分未満となっている。バーチャルキーボード212には、バーチャルキーボード212を上下方向(高さ方向)にシフトさせるための上下シフトボタン216が設けられている。バーチャルキーボード212が下部エリア内に表示されている状態で、ユーザーによって上下シフトボタン216がタッチ操作されると、表示制御部130は、バーチャルキーボード212を上方向に移動させて上部エリア内に表示させる。もちろん、デフォルトの状態において、バーチャルキーボード212が上部エリアに表示されてもよい。
 バーチャルキーボード212は超音波画像232よりも前面に表示されており、超音波画像232上に部分的に重ねて表示されている。バーチャルキーボード212の透明度は、例えばユーザーの指示によって0~100%の間に設定される。例えば、表示制御部130は、透明度を0~100%の間で設定するための図示しない透明度設定用バーをタッチパネルモニタ78に表示させる。ユーザーがその透明度設定用バーに対するタッチ操作によって透明度を指定すると、表示制御部130は、バーチャルキーボード212の透明度を、ユーザーによって指定された値に設定する。図10に示す例では、バーチャルキーボード212の透明度は「0%」に設定されており、バーチャルキーボード212は完全に不透明な状態で表示されている。この状態においては、ユーザーは、バーチャルキーボード212を通して、超音波画像232の重畳部分を観察することができない。
 また、バーチャルキーボード212への入力が有効となる。例えば、ユーザーによってバーチャルキーボード212へのタッチ操作が行われると、検知部132(タッチセンサ)によってそのタッチ操作が検知され、文字や命令が入力される。
 図11には、半透明の状態で表示されたバーチャルキーボード212が示されている。例えば、透明度が0~100%の間の値(0,100%以外の値)に設定されると、バーチャルキーボード212は、その透明度に応じて半透明の状態で表示される。この状態においては、ユーザーは、バーチャルキーボード212を通して、超音波画像232の重畳部分を観察することが可能となる。図11中の破線の矢印232aが示す部分が、超音波画像232とバーチャルキーボード212とが重畳している部分である。その部分においては、超音波画像232が透けて見えており、ユーザーはその部分を観察することができる。また、バーチャルキーボード212への入力が有効となる。例えば、ユーザーによってバーチャルキーボード212へのタッチ操作が行われると、検知部132(タッチセンサ)によってそのタッチ操作が検知され、文字や命令が入力される。これにより、超音波画像232を適切に観察しつつ、バーチャルキーボード212によって文字列の入力が可能となる。
 図12及び図13には、上部エリア内に表示された状態のバーチャルキーボード212が示されている。図12に示す例では、バーチャルキーボード212の透明度は「0%」に設定されており、バーチャルキーボード212は完全に不透明な状態で表示されている。この状態においては、ユーザーは、バーチャルキーボード212を通して、超音波画像232の重畳部分を観察することができない。
 図13に示す例では、バーチャルキーボード212は、半透明の状態で表示されている。この状態においては、ユーザーは、バーチャルキーボード212を通して、超音波画像232の重畳部分を観察することが可能となる。図13中の破線の矢印232bが示す部分が、超音波画像232とバーチャルキーボード212とが重畳している部分である。その部分においては、超音波画像232が透けて見えており、ユーザーはその部分を観察することができる。これにより、超音波画像232を適切に観察しながら、バーチャルキーボード212によって文字列の入力が可能となる。
 バーチャルキーボード212が上部エリア内に表示されている状態で、ユーザーによって上下シフトボタン216がタッチ操作されると、表示制御部130は、バーチャルキーボード212を下方向に移動させて下部エリア内に表示させる。
 例えば、バーチャルキーボード212を上方向又は下方向にシフトさせることにより、超音波画像232における注目部分へのバーチャルキーボード212の重畳を回避することができる。これにより、バーチャルキーボード212を通してではなく、直接、注目部分を観察することができる。本実施形態では、上述したように、バーチャルキーボード212の縦幅は、表示エリア78Aの縦幅の半分未満となっている。それ故、上方向にシフトした状態のバーチャルキーボード212と下方向にシフトした状態のバーチャルキーボード212とでは、重畳している部分がなく、いずれかの方向にバーチャルキーボード212をシフトさせることにより、バーチャルキーボード212を介してではなく、直接、注目部分を観察することが可能となる。
 また、表示制御部130は、上部エリアと下部エリアとの間の中間エリア内にバーチャルキーボード212を表示させてもよいし、上下方向(高さ方向)の任意の位置にバーチャルキーボード212を表示させてもよい。
 上記のように、本実施形態では、バーチャルキーボード212の表示は表示エリア78A内に制限され、その移動も上下方向に制限されている。もちろん、バーチャルキーボード212を左右方向や斜めの方向に移動させてもよい。例えば、表示エリア78Aの大きさが十分に大きい場合には、バーチャルキーボード212を任意の方向に移動できるようにしてもよい。なお、バーチャルキーボード212の縮小表示又は拡大表示が行われてもよい。
 以上のように、本実施形態では、透明表示可能なバーチャルキーボード212が表示される。バーチャルキーボード212は透明性を有するため、超音波画像232上にバーチャルキーボード212が重畳して表示された場合であっても、バーチャルキーボード212を通して超音波画像232を観察することが可能となる。これにより、有限な表示エリア78A内において、超音波画像232とバーチャルキーボード212との重畳表示を回避するために、超音波画像232やバーチャルキーボード212を縮小表示せずに済み、それらを大きく表示することが可能となる。それ故、超音波画像232を大きく表示した状態で適切に観察することが可能となり、大きく表示されたバーチャルキーボード212を用いて入力操作を適切に行うことが可能となる。また、バーチャルキーボード212に含まれる要素を選択して表示せずに済む。例えば、フルキーボードに相当するバーチャルキーボード212を利用することが可能となるため、便利である。
(第3表示例)
 図14A,14B,14Cを参照して、バーチャルキーボードの第3表示例について説明する。第3表示例では、検知部132(タッチセンサ)は、バーチャルキーボードの透明度に応じて、バーチャルキーボードへの入力を無効な入力として検知せず、バーチャルキーボードの背景画像に対する入力を有効な入力として検知する。
 ここでは、図8に示されているレイヤー構造200が採用されているものとする。つまり、バーチャルキーボード212を含むレイヤー210の背面に、ボタン群222を含むレイヤー220が配置されているものとする。ボタン群222の表示位置とバーチャルキーボード212の表示位置とが重なっており、レイヤー210,220を重ねて表示すると、ボタン群222上にバーチャルキーボード212が重畳して表示される。
 図14Aには、透明度が「0%」の状態のバーチャルキーボード212が示されている。このバーチャルキーボード212は、表示エリア78Aの下部エリア内に表示されている。なお、説明の便宜上、超音波画像が表示されていないが、図10に示すように、表示エリア78A内には超音波画像が表示される。透明度が「0%」であるため、バーチャルキーボード212は完全に不透明な状態で表示される。そのため、バーチャルキーボード212の背面に存在するボタン群222を視認することができない。この状態では、検知部132(タッチセンサ)は、バーチャルキーボード212へのタッチ操作を、バーチャルキーボード212への有効なキー入力として検知する。これにより、バーチャルキーボード212を利用した入力が行われる。
 バーチャルキーボード212の透明度を上げていくと、図14Bに示すように、バーチャルキーボード212を通して背景のボタン群222を視認することが可能となる。バーチャルキーボード212の透明度が、「0%」と「100%」との間の値(0%,100%以外の値)に設定されると、バーチャルキーボード212とボタン群222とが共に表示され、バーチャルキーボード212を通してボタン群222を視認することができる。この状態では、検知部132は、バーチャルキーボード212へのタッチ操作を、バーチャルキーボード212への有効なキー入力として検知する。これにより、バーチャルキーボード212を利用した入力が行われる。つまり、検知部132は、バーチャルキーボード212とボタン群222との重畳部分へのタッチ操作をボタン群222への有効な入力として検知せずに、前面に表示されているバーチャルキーボード212への有効なキー入力として検知する。
 更にバーチャルキーボード212の透明度を上げていき、その透明度が「100%」(最大透明度)に設定されると、バーチャルキーボード212は完全に透明となる。この場合、図14Cに示されているように、バーチャルキーボード212を視認することができず(図14Cには説明の便宜上、破線でバーチャルキーボード212が示されている)、重畳部分には、背景画像としてのボタン群222のみが表示されるようになる。この場合において、検知部132は、バーチャルキーボード212が配置されている場所へのタッチ操作を、バーチャルキーボード212への有効なキー入力として検知せず、背面のボタン群222への有効な入力として検知する。これにより、バーチャルキーボード212を含むレイヤー210がボタン群222を含むレイヤー220よりも前面に配置されている場合であっても、ボタン群222への入力が有効な入力として検知されることになる。
 図8に示されているように、バーチャルキーボード212を含むレイヤー210は、ボタン群222を含むレイヤー220よりも前面に配置されている。それ故、バーチャルキーボード212が完全に透明となり重畳部分にボタン群222のみが表示されている場合であっても、バーチャルキーボード212への入力を無効としない場合には、ボタン群222へのタッチ操作が、バーチャルキーボード212への有効なキー入力として検知されてしまうことになる。バーチャルキーボード212を視認できずボタン群222を視認できる状態においては、ユーザーの意識を合理的に推測すると、ボタン群222(重畳部分)へのタッチ操作は、ボタン群222への入力操作を意味していると推測される。それにもかかわらず、ボタン群222へのタッチ操作が、バーチャルキーボード212への有効な入力として検知されてしまうと、キーボードへの誤入力が発生することになる。これに対して、第3表示例によると、ボタン群222へのタッチ操作は、バーチャルキーボード212へのキー入力としては検知されず、ボタン群222への有効な入力として検知されることになる。これにより、キーボードへの誤入力が防止され、ボタン群222への適切な入力が可能となる。
 なお、バーチャルキーボード212の透明度が「100%」以外の場合であっても、基準値以上となる場合に、検知部132は、タッチ操作を、バーチャルキーボード212への有効なキー入力として検知せずに、ボタン群222への有効な入力として検知してもよい。基準値は、例えば予め設定された値であり、ユーザーによって変更されてもよい。
(第4表示例)
 図15A,15Bを参照して、バーチャルキーボードの第4表示例について説明する。第4表示例では、超音波画像に対して設定された関心点(例えば、ドプラ計測に用いられるサンプルボリューム)や関心領域(ROI:region of interest)の位置に応じて、バーチャルキーボードの表示位置が変更される。
 ユーザーによって関心領域の設定指示が与えられると、表示制御部130は、例えば図15Aに示すように、超音波画像232上に関心領域234を表示させる。関心領域234の表示位置、形状及び大きさ等は、例えばユーザーによって指定される。図15Aに示す例では、関心領域234は表示エリア78Aの上部エリア内に表示されている。この場合、表示制御部130は、バーチャルキーボード212を表示エリア78Aの下部エリア内に表示させる。また、図15Bに示すように、ユーザーの指示によって関心領域234が表示エリア78Aの下部エリア内に表示された場合、表示制御部130は、バーチャルキーボード212を表示エリア78Aの上部エリア内に表示させる。このように、関心領域234の上下方向(高さ方向)の位置に応じて、バーチャルキーボード212の上下方向の位置が選択される。超音波画像232上にサンプルボリュームが設定されている場合も、そのサンプルボリュームの上下方向の位置に応じて、バーチャルキーボード212の上下方向の位置が選択される。
 第4表示例によると、関心領域やサンプルボリュームの表示位置を自動的に避けてバーチャルキーボード212が表示される。これにより、関心領域やサンプルボリュームがユーザーにとって見やすくなり、それらの設定が容易となる。
 なお、表示制御部130は、関心領域やサンプルボリュームの表示位置を避けて、上部エリアと下部エリアとの間の中間エリア内にバーチャルキーボード212を表示させてもよいし、上下方向(高さ方向)の任意の位置にバーチャルキーボード212を表示させてもよい。
(別の表示制御の構成例)
 図16を参照して、タッチパネルモニタの表示制御に関する別の構成について説明する。この例においては、距離センサ134が用いられる。距離センサ134は、例えばBE装置14のタッチパネルモニタ78付近に設置されており、タッチパネルモニタ78とユーザー(検査者)との間の距離を検出する。その検出値は表示制御部130に出力される。距離センサ134として、光学的センサ、超音波センサ、磁気センサ等を用いることが可能である。
 表示制御部130は、距離センサ134の検出値(タッチパネルモニタ78とユーザーとの間の距離)に応じて、バーチャルキーボード212の透明度を変更する。例えば、タッチパネルモニタ78とユーザーとの距離が短くなるほど、表示制御部130は、バーチャルキーボード212の透明度を低下させる。これにより、バーチャルキーボード212の視認性が向上する。一方、タッチパネルモニタ78とユーザーとの距離が長くなるほど、表示制御部130は、バーチャルキーボード212の透明度を増大させる。これにより、超音波画像の視認性が向上する。つまり、ユーザーがタッチパネルモニタ78に近づくほど、バーチャルキーボード212の透明度が低下し、ユーザーがタッチパネルモニタ78から離れるほど、バーチャルキーボード212の透明度が増大する。例えば、表示制御部130は、タッチパネルモニタ78とユーザーとの距離に応じて、バーチャルキーボード212の透明度を段階的に変更する(例えば透明度を複数の段階に分けて切り替える)。または、表示制御部130は、タッチパネルモニタ78とユーザーとの距離が所定値以下になった場合、バーチャルキーボード212の透明度を第1透明度に設定し、その距離が所定値より大きくなった場合、透明度を第1透明度よりも大きい第2透明度に設定してもよい。このように、距離に応じて2つの透明度を切り替えてもよいし、3つ以上の透明度を段階的に切り替えてもよい。
 以上のように、タッチパネルモニタ78とユーザーとの間の距離に応じてバーチャルキーボード212の透明度を変更することにより、ユーザー(検査者)の状況に応じた表示制御が可能となる。つまり、タッチパネルモニタ78とユーザーとの間の距離によって、ユーザーの状況が推知され、その状況に応じた表示制御が可能となる。
 更に別の例として、バッテリ不足等のエラーメッセージが表示される場合、表示制御部130は、バーチャルキーボード212よりもエラーメッセージを優先的に表示させてもよい。この場合、バーチャルキーボード212がタッチパネルモニタ78に表示されている場合であっても、表示制御部130は、バーチャルキーボード212よりも前面にエラーメッセージを表示させる。これにより、バーチャルキーボード212とエラーメッセージとの表示位置が重なっている場合には、バーチャルキーボード212上にエラーメッセージが重畳して表示されることになる。また、エラーメッセージを非表示にするための操作が行われない限り、検知部132は、バーチャルキーボード212へのタッチ操作を有効なキー入力として検知しなくてもよい。
 10 超音波診断システム、12 FE装置、14 BE装置、78 タッチパネルモニタ、130 表示制御部、132 検知部、134 距離センサ、212 バーチャルキーボード、222 ボタン群、232 超音波画像。

Claims (9)

  1.  超音波の送受波により得られた受信信号に基づいて形成された超音波画像を表示する表示部と、
     超音波画像が表示される表示画面内に、透明表示可能なバーチャルキーボードを表示する制御を実行する表示制御部と、
     前記表示画面上の前記バーチャルキーボードへの入力を検知する検知部と、
     を含むことを特徴とする超音波診断装置。
  2.  請求項1に記載の超音波診断装置において、
     前記バーチャルキーボードの透明度が可変である、
     ことを特徴とする超音波診断装置。
  3.  請求項1に記載の超音波診断装置において、
     前記表示制御部は、シフト指示に応じて、前記表示画面内で前記バーチャルキーボードを上方向又は下方向にシフトさせる、
     ことを特徴とする超音波診断装置。
  4.  請求項3に記載の超音波診断装置において、
     前記表示制御部は、前記バーチャルキーボードを上方向又は下方向にシフトさせるためのボタン画像を前記表示部に表示させる、
     ことを特徴とする超音波診断装置。
  5.  請求項1に記載の超音波診断装置において、
     前記検知部は、前記バーチャルキーボードの透明度が所定条件を満たす場合に、前記バーチャルキーボードの表示エリア内への入力を、前記バーチャルキーボードの背景画像に対する入力として検知する、
     ことを特徴とする超音波診断装置。
  6.  請求項1に記載の超音波診断装置において、
     前記表示部とユーザーとの間の距離を検知する距離センサを更に含み、
     前記表示制御部は、検知された距離に応じて、前記バーチャルキーボードの透明度を変更する、
     ことを特徴とする超音波診断装置。
  7.  請求項6に記載の超音波診断装置において、
     前記表示制御部は、前記表示部とユーザーとの距離が遠い場合における前記バーチャルキーボードの透明度を、前記表示部とユーザーとの距離が近い場合における前記バーチャルキーボードの透明度よりも増大させる、
     ことを特徴とする超音波診断装置。
  8.  請求項1に記載の超音波診断装置において、
     前記表示制御部は、超音波画像に対して設定された関心点又は関心領域の位置に応じて、前記バーチャルキーボードの表示位置を変更する、
     ことを特徴とする超音波診断装置。
  9.  超音波の送受波により得られた受信信号に基づいて形成された超音波画像を表示装置に表示させ、超音波画像が表示される表示画面内に、透明表示可能なバーチャルキーボードを表示する制御を実行する工程と、
     前記表示画面上の前記バーチャルキーボードへの入力操作を検知する工程と、
     を含むことを特徴とする超音波画像表示方法。
PCT/JP2015/079316 2015-03-18 2015-10-16 超音波診断装置及び超音波画像表示方法 WO2016147460A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580077696.0A CN107405135B (zh) 2015-03-18 2015-10-16 超声波诊断装置以及超声波图像显示方法
US15/557,879 US20180052963A1 (en) 2015-03-18 2015-10-16 Ultrasound diagnostic device and ultrasound image display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-055273 2015-03-18
JP2015055273A JP6017612B2 (ja) 2015-03-18 2015-03-18 超音波診断装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2016147460A1 true WO2016147460A1 (ja) 2016-09-22

Family

ID=56918647

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079316 WO2016147460A1 (ja) 2015-03-18 2015-10-16 超音波診断装置及び超音波画像表示方法

Country Status (4)

Country Link
US (1) US20180052963A1 (ja)
JP (1) JP6017612B2 (ja)
CN (1) CN107405135B (ja)
WO (1) WO2016147460A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10993703B2 (en) 2016-09-23 2021-05-04 Konica Minolta, Inc. Ultrasound diagnosis apparatus and computer readable recording medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170114435A (ko) * 2016-04-04 2017-10-16 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6835202B2 (ja) * 2017-03-03 2021-02-24 株式会社島津製作所 移動型x線撮影装置および移動型x線撮影装置の表示部の制御方法
PL3530511T3 (pl) * 2018-02-27 2020-11-16 Joseph Vögele AG Sposób rekonfiguracji układu operacyjnego dla maszyny budowlanej
CN110837288B (zh) * 2018-08-15 2024-03-19 北京搜狗科技发展有限公司 应用程序管理方法、装置、移动终端及可读存储介质
CN115755397A (zh) * 2019-04-26 2023-03-07 苹果公司 具有低光操作的头戴式显示器
WO2023229647A1 (en) * 2022-05-24 2023-11-30 Google Llc Positioning a graphical keyboard within a graphical user interface

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328183A (ja) * 1997-05-30 1998-12-15 Shimadzu Corp 超音波診断装置
JPH11326A (ja) * 1997-06-10 1999-01-06 Toshiba Iyou Syst Eng Kk 超音波画像診断装置
JP2002336250A (ja) * 2000-12-28 2002-11-26 Ge Medical Systems Global Technology Co Llc 医療診断撮像装置用の操作者インタフェイス
JP2003299652A (ja) * 1999-08-20 2003-10-21 Zonare Medical Systems Inc 携帯型撮像装置におけるユーザーインターフェース
JP2005137747A (ja) * 2003-11-10 2005-06-02 Toshiba Corp 超音波診断装置
JP2007159922A (ja) * 2005-12-15 2007-06-28 Matsushita Electric Ind Co Ltd 超音波診断装置
JP2008515583A (ja) * 2004-10-12 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 超音波タッチスクリーン・ユーザーインターフェースおよびディスプレイ
WO2011013346A1 (ja) * 2009-07-29 2011-02-03 パナソニック株式会社 超音波診断装置
JP2014008339A (ja) * 2012-07-02 2014-01-20 Toshiba Corp 超音波診断装置及びその操作支援方法
JP2014168720A (ja) * 2008-03-04 2014-09-18 Super Sonic Imagine ツインモニタ電子表示システム
JP2015093120A (ja) * 2013-11-13 2015-05-18 株式会社東芝 超音波診断装置及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5455550B2 (ja) * 2009-10-23 2014-03-26 Hoya株式会社 電子内視鏡用プロセッサ
KR102086799B1 (ko) * 2013-02-21 2020-03-09 삼성전자주식회사 가상 키 패드를 디스플레이하기 위한 방법 및 그 전자 장치

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328183A (ja) * 1997-05-30 1998-12-15 Shimadzu Corp 超音波診断装置
JPH11326A (ja) * 1997-06-10 1999-01-06 Toshiba Iyou Syst Eng Kk 超音波画像診断装置
JP2003299652A (ja) * 1999-08-20 2003-10-21 Zonare Medical Systems Inc 携帯型撮像装置におけるユーザーインターフェース
JP2002336250A (ja) * 2000-12-28 2002-11-26 Ge Medical Systems Global Technology Co Llc 医療診断撮像装置用の操作者インタフェイス
JP2005137747A (ja) * 2003-11-10 2005-06-02 Toshiba Corp 超音波診断装置
JP2008515583A (ja) * 2004-10-12 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 超音波タッチスクリーン・ユーザーインターフェースおよびディスプレイ
JP2007159922A (ja) * 2005-12-15 2007-06-28 Matsushita Electric Ind Co Ltd 超音波診断装置
JP2014168720A (ja) * 2008-03-04 2014-09-18 Super Sonic Imagine ツインモニタ電子表示システム
WO2011013346A1 (ja) * 2009-07-29 2011-02-03 パナソニック株式会社 超音波診断装置
JP2014008339A (ja) * 2012-07-02 2014-01-20 Toshiba Corp 超音波診断装置及びその操作支援方法
JP2015093120A (ja) * 2013-11-13 2015-05-18 株式会社東芝 超音波診断装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10993703B2 (en) 2016-09-23 2021-05-04 Konica Minolta, Inc. Ultrasound diagnosis apparatus and computer readable recording medium

Also Published As

Publication number Publication date
CN107405135A (zh) 2017-11-28
JP6017612B2 (ja) 2016-11-02
CN107405135B (zh) 2021-03-26
JP2016174639A (ja) 2016-10-06
US20180052963A1 (en) 2018-02-22

Similar Documents

Publication Publication Date Title
JP6017612B2 (ja) 超音波診断装置及びプログラム
KR101313218B1 (ko) 휴대형 초음파 시스템
JP6772246B2 (ja) プロセッサドングルを備える超音波システム
JP5475304B2 (ja) タッチスクリーンが装着されたディスプレイ部が備えられた超音波システム
JP5737823B2 (ja) 超音波診断装置
US9848849B2 (en) System and method for touch screen control of an ultrasound system
KR101245145B1 (ko) 휴대형 초음파 진단기기
US20230267699A1 (en) Methods and apparatuses for tele-medicine
KR20100125966A (ko) 터치 인터랙션을 사용하는 초음파 진단 장치
JP5398127B2 (ja) 超音波画像診断装置
JP4615893B2 (ja) 超音波撮像装置
JP6106243B1 (ja) 超音波診断装置
JP5924973B2 (ja) 超音波診断装置
EP2575622B1 (en) Control device
JP5225648B2 (ja) 超音波画像表示システム
US10788964B1 (en) Method and system for presenting function data associated with a user input device at a main display in response to a presence signal provided via the user input device
JP6184435B2 (ja) 超音波診断システム
JP2011104109A (ja) 超音波診断装置
JP2016214650A (ja) 超音波診断装置
KR101060387B1 (ko) 듀얼 터치 스크린을 구비하는 휴대형 초음파 시스템
JP2024024441A (ja) 超音波プローブ及び超音波診断装置
JP2016179143A (ja) 超音波診断システム
JP2000300565A (ja) 超音波診断装置
KR20080051913A (ko) 초음파 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15885552

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15557879

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15885552

Country of ref document: EP

Kind code of ref document: A1