WO2013015221A1 - 医用画像制御システム及び携帯端末 - Google Patents

医用画像制御システム及び携帯端末 Download PDF

Info

Publication number
WO2013015221A1
WO2013015221A1 PCT/JP2012/068473 JP2012068473W WO2013015221A1 WO 2013015221 A1 WO2013015221 A1 WO 2013015221A1 JP 2012068473 W JP2012068473 W JP 2012068473W WO 2013015221 A1 WO2013015221 A1 WO 2013015221A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image data
medical image
moving image
diagnostic apparatus
Prior art date
Application number
PCT/JP2012/068473
Other languages
English (en)
French (fr)
Inventor
智司 若井
池田 智
愛 福田
剛 江積
真哉 杉山
恵夢 藤原
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201280033259.5A priority Critical patent/CN103648387B/zh
Publication of WO2013015221A1 publication Critical patent/WO2013015221A1/ja
Priority to US14/161,471 priority patent/US9532756B2/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7285Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]

Definitions

  • Embodiments described herein relate generally to a medical image control system and a portable terminal.
  • the telemedicine support system is a system that supports in-hospital medical practices by mainly realizing remote access to devices installed in a hospital (hereinafter referred to as “in-hospital”).
  • the problem to be solved by the present invention is to provide a medical image control system and a portable terminal capable of supporting medical practice using the portable terminal.
  • the medical image control system of the embodiment includes a medical image diagnostic apparatus and a mobile terminal.
  • the medical image diagnostic apparatus includes a collection unit, a distribution unit, and a reflection unit.
  • the collection unit captures a moving image of the subject according to predetermined imaging conditions and collects moving image data.
  • the distribution unit immediately distributes the moving image data to the mobile terminal.
  • the reflection unit receives the control information transmitted from the portable terminal, and reflects the received control information in the processing by the medical image diagnostic apparatus.
  • the portable terminal includes a reproduction unit and a control information transmission unit.
  • the reproduction unit receives the moving image data distributed by the distribution unit and immediately reproduces the received moving image data.
  • the control information transmission unit receives an operation related to the medical image diagnostic apparatus, and transmits control information indicating the received operation content to the medical image diagnostic apparatus.
  • FIG. 1 is a diagram for explaining the concept of the medical image control system according to the first embodiment.
  • FIG. 2 is a diagram for explaining a configuration example of the medical image control system according to the first embodiment.
  • FIG. 3 is a flowchart illustrating an example of a processing procedure according to the first embodiment.
  • FIG. 4 is a diagram for explaining the concept of the medical image control system according to the second embodiment.
  • FIG. 5 is a diagram for explaining the concept of the medical image control system according to the second embodiment.
  • FIG. 6 is a diagram for explaining the concept of the medical image control system according to the second embodiment.
  • FIG. 7 is a diagram for explaining a configuration example of a medical image control system according to the second embodiment.
  • FIG. 8 is a sequence diagram illustrating an example of a processing procedure in the second embodiment.
  • FIG. 9 is a sequence diagram illustrating an example of a processing procedure in the second embodiment.
  • FIG. 10 is a diagram for explaining a modification of the second embodiment.
  • FIG. 11 is a diagram for explaining a risk table in the third embodiment.
  • FIG. 12 is a diagram for explaining an example of the function restriction of remote control in the third embodiment.
  • FIG. 13 is a diagram for explaining an example of the function restriction of remote control in the third embodiment.
  • FIG. 14 is a diagram for explaining a modified example of the function restriction of the remote control in the third embodiment.
  • FIG. 1 is a diagram for explaining the concept of the medical image control system according to the first embodiment.
  • the medical image control system according to the first embodiment includes a medical image diagnostic apparatus 20 and a mobile terminal 30, and the medical image diagnostic apparatus 20 performs real time (real time) on the mobile terminal 30.
  • Video distribution That is, the medical image diagnostic apparatus 20 immediately distributes the moving image data collected by capturing a moving image of the subject to the mobile terminal 30.
  • the mobile terminal 30 receives an operation related to the medical image diagnostic apparatus 20 and transmits control information indicating the received operation content to the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus 20 is an X-ray diagnostic apparatus
  • the portable terminal 30 performs an operation for designating an angle of a C arm (arm) as an operation related to imaging conditions in the medical image diagnostic apparatus 20 as shown in FIG.
  • the designation information of the received angle is transmitted to the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus 20 reflects the angle of the C-arm designated by the portable terminal 30 in the photographing condition and performs photographing.
  • the mobile terminal 30 performs an editing operation (for example, drawing of ROI (Region Of Interest)) on the moving image data (for example, X-ray image) distributed from the medical image diagnostic apparatus 20.
  • the received edit information is transmitted to the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus 20 reflects the received editing information on the moving image data reproduced by the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus 20 displays the ROI drawn by the portable terminal 30 on the moving image data reproduced on the console screen included in the medical image diagnostic apparatus 20.
  • FIG. 2 is a diagram for explaining a configuration example of the medical image control system according to the first embodiment.
  • the medical image diagnostic apparatus 20 and the mobile terminal 30 are connected via a network 50.
  • a mobile terminal 30 that can be connected to the Internet via a wireless local area network (LAN) or a mobile phone network accesses the medical image diagnostic apparatus 20 installed in the hospital LAN via the Internet.
  • LAN wireless local area network
  • the mobile terminal 30 accesses the medical image diagnostic apparatus 20 via the hospital LAN.
  • the medical image diagnostic apparatus 20 includes a communication unit 21, a main body control unit 22, a storage unit 23, a display unit 24, an input unit 25, an imaging unit 26, a reconstruction unit 27, an arithmetic processing unit 28, A remote device arithmetic processing unit 29a.
  • the communication unit 21 is an interface of the medical image diagnostic apparatus 20 connected to the hospital LAN.
  • the communication unit 21 is connected to an in-hospital LAN or the Internet outside the hospital via a network device such as a hub, and communicates with the mobile terminal 30.
  • the main body control unit 22 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
  • the entire processing unit 20 is controlled.
  • the main body control unit 22 includes a distribution unit 22a and a reflection unit 22b.
  • the distribution unit 22a distributes the moving image data collected by the photographing unit 26 and generated by the reconstruction unit 27 and the arithmetic processing unit 28 to the mobile terminal 30 in a push type in real time.
  • the distribution unit 22a can be realized by using, for example, a known streaming technique (for example, RTSP (Real Time Streaming Protocol)) or a progressive download technique.
  • RTSP Real Time Streaming Protocol
  • the reflection unit 22b receives the control information transmitted from the mobile terminal 30, and reflects the received control information in the processing by the medical image diagnostic apparatus 20. For example, when the reflecting unit 22b receives imaging condition setting information (for example, C-arm angle designation information) from the mobile terminal 30, the imaging unit 20 uses the received setting information. Reflect in the conditions. For example, when the reflection unit 22b receives editing information (for example, ROI editing information) for moving image data from the mobile terminal 30, the moving image reproduced by the medical image diagnostic apparatus 20 is received. Reflect in the data.
  • imaging condition setting information for example, C-arm angle designation information
  • editing information for example, ROI editing information
  • the storage unit 23 is a hard disk, a semiconductor memory, or the like, and stores various information in the medical image diagnostic apparatus 20. For example, the storage unit 23 captures image capturing conditions used by the image capturing unit 26, image capturing data collected by the image capturing unit 26, image data generated by the reconstruction unit 27, and an image generated by the arithmetic processing unit 28. Store data etc.
  • the display unit 24 is a monitor, and displays various information in the medical image diagnostic apparatus 20 as a console screen of the medical image diagnostic apparatus 20.
  • the display unit 24 displays a GUI (Graphical User Interface) for accepting an operation on the medical image diagnostic apparatus 20, image data generated by the reconstruction unit 27 or the arithmetic processing unit 28 during or after shooting.
  • the input unit 25 is a mouse, a keyboard, a trackball, or the like, and receives an operation on the medical image diagnostic apparatus 20 from an operator.
  • the imaging unit 26 controls the hardware of the medical image diagnostic apparatus 20 according to predetermined imaging conditions, images the subject, and collects imaging data.
  • the medical image diagnostic apparatus 20 is an X-ray diagnostic apparatus
  • the imaging unit 26 controls the C arm and the X-ray tube to capture and detect the subject.
  • the X-ray transmitted through the subject is received by controlling the instrument.
  • the imaging unit 26 according to the first embodiment captures a moving image of the subject and collects moving image shooting data.
  • the reconstruction unit 27 reconstructs the shooting data collected by the shooting unit 26 and generates image data.
  • the reconstruction unit 27 reconstructs the moving image shooting data collected by the shooting unit 26 and generates moving image data.
  • the arithmetic processing unit 28 performs image processing on the image data generated by the reconstruction unit 27.
  • the medical image diagnostic apparatus 20 is an X-ray CT (Computed Tomography) apparatus
  • the arithmetic processing unit 28 converts the image data of the slice image generated by the reconstruction unit 27 into volume data, and positions between the image data After performing image processing such as matching and extraction of specific areas, volume rendering processing is performed.
  • the remote device processing unit 29a accepts different operations in the medical image diagnostic apparatus 20 and the portable terminal 30, and performs processing dedicated to the portable terminal 30 when the received operations are executed in parallel. For example, when different operations are received in the display unit 24 (also referred to as a console screen or a local screen) of the medical image diagnostic apparatus 20 and the display unit 34 (remote screen) of the mobile terminal 30, and the received operations are executed in parallel, Performs processing dedicated to remote screens. In this case, for example, different contents are displayed on the local screen and the remote screen, and different operations are executed in parallel.
  • control may be performed so that only one has the control right. For example, when the mobile terminal 30 has the control right, the operation from the local screen cannot be performed on the moving image data collected and stored by the medical image diagnostic apparatus 20, and only the operation from the remote screen is valid. Become.
  • the mobile terminal 30 is a PC, a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like. As shown in FIG. 2, the mobile terminal 30 includes a communication unit 31, a mobile terminal control unit 32, an input unit 33, a display unit 34, a storage unit 35, and a medical image diagnostic apparatus remote control unit 36a. .
  • the communication unit 31 is an interface of the mobile terminal 30 and is connected to a hospital LAN or the Internet via a wireless access point or the like, and communicates with the medical image diagnostic apparatus 20.
  • the mobile terminal control unit 32 is an electronic circuit such as a CPU or MPU, or an integrated circuit such as an ASIC or FPGA, and controls the entire processing units in the mobile terminal 30.
  • the portable terminal control unit 32 includes a reproduction unit 32a and a moving image data editing unit 32b.
  • the reproduction unit 32a receives the moving image data distributed from the medical image diagnostic apparatus 20, and reproduces the received moving image data on the display unit 34 in real time.
  • the moving image data editing unit 32b receives an editing operation on the moving image data reproduced by the reproducing unit 32a, and reflects the content of the received editing operation on the moving image data reproduced by the reproducing unit 32a. For example, when receiving the ROI drawing for the moving image data being reproduced, the moving image data editing unit 32b displays the received ROI on the moving image data being reproduced.
  • the content of the editing operation accepted by the moving image data editing unit 32b may be stored in the storage unit 35.
  • the input unit 33 is a touch panel, a dedicated button, a gyro sensor, or the like, and receives an operation on the mobile terminal 30 from an operator.
  • the display unit 34 is a liquid crystal panel or the like, and displays various information in the mobile terminal 30 as a screen (remote screen) of the mobile terminal 30.
  • the display unit 34 displays image data transmitted from the medical image diagnostic apparatus 20, a GUI for accepting an operation on the medical image diagnostic apparatus 20, and the like.
  • the input unit 33 is a touch panel, the input unit 33 and the display unit 34 may be used in common.
  • the storage unit 35 is a hard disk, a semiconductor memory, or the like, and stores various information in the mobile terminal 30.
  • the medical image diagnostic apparatus remote control unit 36a receives an operation related to the medical image diagnostic apparatus 20, and transmits control information indicating the received operation content to the medical image diagnostic apparatus 20, thereby remotely controlling the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus remote control unit 36a receives an operation related to imaging conditions (for example, designation of the angle of the C arm), and transmits the received imaging condition setting information to the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus remote control unit 36 a receives editing information (for example, ROI drawing) for moving image data, and transmits the received editing information to the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus 20 side receives the editing information transmitted from the portable terminal 30 and reflects it on the moving image data being reproduced on the local screen or saves it in the storage unit 23 in the background. Further, the editing information may be stored in the storage unit 35 of the mobile terminal 30.
  • FIG. 3 is a flowchart showing an example of a processing procedure in the first embodiment.
  • examination or treatment is started, and imaging is started in the medical image diagnostic apparatus 20 (step S01).
  • step S02 mutual authentication is performed between the medical image diagnostic apparatus 20 and the portable terminal 30 (step S02).
  • a mutual identifier is acquired between the medical image diagnostic apparatus 20 and the portable terminal 30, and it is authenticated whether it is a safe apparatus.
  • the user of the mobile terminal 30 checks whether or not the connection destination ID (ID of the medical image diagnostic apparatus 20) has been registered (step S02-1). If it has been registered (Yes at Step S02-1), the user of the mobile terminal 30 performs an operation of selecting a registered connection destination ID (Step S02-2). On the other hand, if it is not registered (No at Step S02-1), the user of the medical image diagnostic apparatus 20 transmits a connection request notification from the medical image diagnostic apparatus 20 to the portable terminal 30 (for example, mail Operate (to send) (step S02-3). Then, the user of the portable terminal 30 performs an operation of selecting a connection destination ID in the connection request notification (step S02-4).
  • a connection request notification for example, mail Operate (to send)
  • connection destination ID for example, accesses the URL (Uniform Resource Locator) associated with the connection destination ID and logs in to the medical image diagnostic apparatus 20 from the mobile terminal 30.
  • URL Uniform Resource Locator
  • Step S02-6 a connection is established between the medical image diagnostic apparatus 20 and the portable terminal 30. Note that the process of establishing a connection between the medical image diagnostic apparatus 20 and the mobile terminal 30 is not limited to the above-described example, and can be realized using other known authentication techniques.
  • the distribution unit 22a of the medical image diagnostic apparatus 20 transmits moving image data and other contents to the mobile terminal 30 (step S03).
  • the distribution unit 22a transfers the content currently being reproduced (or displayed) on the local screen to the mobile terminal 30 (step S03-1).
  • a known streaming technology or progressive download technology is used.
  • the distribution unit 22a transmits a menu screen for inputting photographing conditions to the mobile terminal 30, and this menu screen is displayed on the remote screen (step S03-2). .
  • the user of the portable terminal 30 inputs imaging conditions such as tube current and tube voltage of the X-ray tube, for example, by inputting numerical values and characters on the menu screen.
  • the medical image diagnostic device remote control unit 36a of the mobile terminal 30 transmits the setting information of the imaging conditions input by the user to the medical image diagnostic device 20.
  • the medical image diagnostic apparatus 20 performs imaging reflecting these imaging conditions. In this way, it is possible to control imaging in the medical image diagnostic apparatus 20 from the portable terminal 30.
  • the distribution unit 22a transmits the moving image data being reproduced on the local screen to the portable terminal 30, whereby the same moving image data as the local screen is reproduced on the remote screen (step S03-3).
  • the user of the portable terminal 30 inputs photographing conditions such as a photographing direction by, for example, a drag operation with a mouse or an operation of tilting the portable terminal 30 on the moving image data.
  • the medical image diagnostic device remote control unit 36a of the mobile terminal 30 transmits the setting information of the imaging conditions input by the user to the medical image diagnostic device 20.
  • the medical image diagnostic apparatus 20 performs imaging reflecting these imaging conditions. In this way, it is possible to control imaging in the medical image diagnostic apparatus 20 from the portable terminal 30.
  • the distribution unit 22a transmits moving image data (for example, moving image data stored in the medical image diagnostic apparatus 20) different from the moving image data being reproduced on the local screen to the mobile terminal 30, whereby the remote screen is displayed.
  • moving image data different from the local screen is reproduced (step S03-4).
  • the user of the mobile terminal 30 draws an ROI on the moving image data.
  • the moving image data editing unit 32b of the mobile terminal 30 saves the editing information input by the user in the storage unit 35 of the mobile terminal 30, or the medical image diagnostic device remote control unit 36a is input by the user.
  • the edited information is transmitted to the medical image diagnostic apparatus 20.
  • the reproduction state of the moving image data distributed by the medical image diagnostic apparatus 20 can be specified independently of the reproduction state of the moving image data reproduced in the medical image diagnosis apparatus 20, and the mobile terminal 30 side can be designated. Can be edited.
  • the moving image data being captured by the medical image diagnostic apparatus 20 can be reproduced in real time by the mobile terminal 30.
  • the moving image data distributed from the medical image diagnostic apparatus 20 can be edited on the mobile terminal 30 side.
  • the medical image control system does not necessarily have all of these functions, and may have only some functions. For example, a system that performs only real-time video distribution to the mobile terminal 30 and does not accept control or editing of shooting conditions in the mobile terminal 30 may be used. Further, for example, an operation that can be executed on the mobile terminal 30 side may be controlled by an access authority for each user.
  • (Second Embodiment) 4 to 6 are diagrams for explaining the concept of the medical image control system according to the second embodiment.
  • the medical image control system includes an image processing device 10 and an external display device 40 in addition to the medical image diagnostic device 20 and the mobile terminal 30.
  • the distribution destination of the moving image distribution performed in real time from the medical image diagnostic apparatus 20 is changed to the external display device 40, and another content related to the moving image data distributed to the external display device 40 (hereinafter referred to as related) is stored in the mobile terminal 30.
  • Content is simultaneously distributed from the image processing apparatus 10.
  • Information for specifying related content is transmitted from the medical image diagnostic apparatus 20 to the image processing apparatus 10.
  • the external display device 40 is a TV (television) device, a PC, or the like, and has, for example, a display unit having a large screen compared to the display unit 34 of the mobile terminal 30.
  • the moving image data distributed from the medical image diagnostic apparatus 20 is displayed on the external display device 40 having a large screen, while the portable terminal 30 receives related content from the image processing apparatus 10 and displays it.
  • the medical image diagnostic apparatus 20 identifies the position of the catheter by analyzing the moving image data collected by the apparatus by image processing, and identifies the coronary artery site to be treated from the identified position of the catheter. Then, the image processing apparatus 10 is notified of the coronary artery ID indicating the identified coronary artery site. Then, the image processing apparatus 10 searches the image data of the analysis result of the coronary artery indicated by the coronary artery ID from the past image data regarding the same subject stored in the own apparatus, and carries the searched image data as related content. It transmits to the terminal 30.
  • the moving image data of the coronary artery site being treated is displayed in real time on the large-screen external display device 40, and the analysis result of the past coronary artery site of the same patient is displayed on the portable terminal 30.
  • the user of the portable terminal 30 can check the moving image data being treated while referring to the analysis result of the past coronary artery site of the patient being treated. For example, this is effective when the display unit 34 of the portable terminal 30 is small.
  • the medical image control system according to the second embodiment further controls the moving image data distributed in real time and the related content to be synchronized as an application.
  • the image processing apparatus 10 synchronizes the display positions of the moving image data distributed in real time and the related content using position information (for example, a treatment target site and an observation direction) in the moving image data distributed in real time.
  • position information for example, a treatment target site and an observation direction
  • the medical image diagnostic apparatus 20 identifies the coronary artery site to be treated and notifies the image processing apparatus 10 of the coronary artery ID, and performs image processing on angle information of the C arm of the medical image diagnostic apparatus 20 that is an X-ray diagnostic apparatus. The device 10 is notified. Then, the image processing apparatus 10 searches the image data of the analysis result of the coronary artery indicated by the coronary artery ID from the past image data related to the same subject stored in the apparatus, and is notified of the searched image data. Image data corresponding to the angle of the C arm is generated. Then, the image processing apparatus 10 distributes the generated image data to the mobile terminal 30.
  • the moving image data of the coronary artery site being treated is displayed in real time on the large-screen external display device 40, and the analysis result of the past coronary artery site of the same patient is observed from the same observation direction on the portable terminal 30. Is displayed as an analysis result. In other words, an analysis result image in which the display positions are synchronized is distributed to the mobile terminal 30.
  • the image processing apparatus 10 uses the time phase information (for example, biological information such as ECG (electrocardiogram) and respiration) in the moving image data distributed in real time, and the moving image data and related content distributed in real time. And control to synchronize the display timing.
  • the medical image diagnostic apparatus 20 acquires the ECG of the subject and transmits the ECG (or timing of the main wave (for example, R wave)) to the image processing apparatus 10. Then, the image processing apparatus 10 controls display so that past image data related to the same subject coincides with the ECG timing transmitted from the medical image diagnostic apparatus 20. Then, the image processing apparatus 10 distributes the image data whose timing is controlled to the mobile terminal 30.
  • the moving image data of the coronary artery part being treated is displayed in real time on the large-screen external display device 40, and the analysis result of the past coronary artery part of the same patient is displayed on the portable terminal 30 at the same ECG timing. Displayed while synchronizing. That is, an analysis result image with synchronized display timing is delivered to the mobile terminal 30.
  • the display position synchronization and display timing synchronization described above may be controlled so as to be synchronized on all of the console screen of the medical image diagnostic apparatus 20, the screen of the portable terminal 30, and the screen of the external display apparatus 40. , Control may be performed so as to synchronize with a part thereof.
  • the information to be synchronized may be controlled so that all types of information are synchronized, or only a part of the information may be synchronized. Further, the same content may be synchronized, or different contents may be synchronized.
  • the portable terminal 30 is connected to the external display device 40 via the image processing device 10 or the medical image diagnostic device 20.
  • the image processing device 10 or the medical image diagnostic device 20.
  • the medical image diagnostic apparatus 20 performs photographing and editing according to these pieces of information, so that the control content performed by the mobile terminal 30 is added to the moving image data distributed in real time from the medical image diagnostic apparatus 20 to the external display device 40. Is reflected.
  • the mobile terminal 30 performs an operation of designating an angle of the C arm on the moving image data distributed from the image processing apparatus 10 (rotating a volume rendering image being reproduced, or gyro sensor
  • the mobile terminal 30 itself equipped with the image data is rotated), and ROI drawing is received, and the received information is transmitted to the image processing apparatus 10.
  • the image processing apparatus 10 transfers the received information to the medical image diagnostic apparatus 20.
  • the medical image diagnostic apparatus 20 performs imaging by reflecting the C-arm angle designation information transferred from the image processing apparatus 10 in the imaging conditions.
  • the medical image diagnostic apparatus 20 reflects the ROI transferred from the image processing apparatus 10 in the moving image data being distributed.
  • the medical image diagnostic apparatus 20 displays the moving image data collected under the new imaging conditions on the console screen and distributes it to the external display device 40 in real time.
  • the ROI drawn on the mobile terminal 30 is displayed on the moving image data.
  • FIG. 7 is a diagram for explaining a configuration example of the medical image control system according to the second embodiment.
  • devices and units surrounded by a dotted line are further added to the configuration example of the first embodiment.
  • the medical image diagnostic apparatus 20 further includes a time synchronization signal processing unit 29b and a position synchronization signal processing unit 29c.
  • the time synchronization signal processing unit 29 b performs a process for synchronizing the display timing of the moving image data distributed to the external display device 40 and the related content distributed to the mobile terminal 30. Specifically, the time synchronization signal processing unit 29b transmits the time phase information of the object depicted in the moving image data to the image processing device 10. For example, the time synchronization signal processing unit 29 b acquires the ECG of the subject and transmits the ECG (or timing of the main wave (for example, R wave)) to the image processing apparatus 10.
  • the position synchronization signal processing unit 29c performs processing for synchronizing the display positions of the moving image data distributed to the external display device 40 and the related content distributed to the mobile terminal 30. Specifically, the position synchronization signal processing unit 29 c transmits the position information of the object drawn in the moving image data to the image processing apparatus 10. For example, the position synchronization signal processing unit 29 c specifies a treatment target region and an observation direction, and transmits these pieces of information to the image processing apparatus 10. In addition, when both display position synchronization and display timing synchronization are not performed, and only display timing synchronization is performed, information on a treatment target site specified by the position synchronization signal processing unit 29c is timed as necessary. The synchronization signal processing unit 29b may be notified and transmitted from the time synchronization signal processing unit 29b to the image processing apparatus 10.
  • the portable terminal 30 further includes an image processing device remote control unit 36b, an external display device remote control unit 36c, a position synchronization control unit 37a, and a time synchronization control unit 37b.
  • the image processing device remote control unit 36b receives an operation related to the image processing device 10, and transmits control information indicating the received operation content to the image processing device 10 to perform image processing.
  • the device 10 is remotely controlled.
  • the image processing device remote control unit 36b receives an operation related to related content, and transmits control information indicating the received operation content to the image processing device 10.
  • the external display device remote control unit 36c receives an operation related to the external display device 40, and transmits control information indicating the received operation content to the external display device 40, thereby enabling external display.
  • the device 40 is remotely controlled.
  • the mobile terminal 30 and the external display device 40 may be directly connected. In this case, the mobile terminal 30 functions as a so-called operation remote controller for the external display device 40.
  • the position synchronization control unit 37a and the time synchronization control unit 37b control display position synchronization and display timing synchronization for related content played back on the mobile terminal 30.
  • the image processing apparatus 10 controls the synchronization of the display position and the synchronization of the display timing. That is, an example in which the image processing apparatus 10 delivers related content to the mobile terminal 30 after synchronizing the display position and the display timing will be described.
  • the embodiment is not limited to this, and display position synchronization and display timing synchronization may be controlled on the mobile terminal 30 side.
  • the position synchronization control unit 37a and the time synchronization control unit 37b receive position information and time phase information together with related content from the image processing apparatus 10, and reproduce the related content using these position information and time phase information. To control.
  • the image processing apparatus 10 includes a communication unit 11, a main body control unit 12, a storage unit 13, an image processing unit 14, and an application management unit 15.
  • the communication unit 11 is an interface of the image processing apparatus 10 connected to the hospital LAN.
  • the communication unit 21 is connected to an in-hospital LAN or the Internet outside the hospital via a network device such as a hub, and communicates with the medical image diagnostic apparatus 20 and the portable terminal 30.
  • the main body control unit 12 is an electronic circuit such as a CPU or MPU, or an integrated circuit such as an ASIC or FPGA, and controls the entire processing units in the image processing apparatus 10.
  • the main body control unit 12 includes a distribution unit 12a.
  • the distribution unit 12a is a group of contents stored in the storage unit 13 based on information transmitted from the medical image diagnostic apparatus 20 (for example, examination ID or patient ID may be transmitted in addition to position information).
  • the related content is specified from among the items, and the specified related content is distributed to the mobile terminal 30 in a push type in real time.
  • the distribution unit 12a can be realized using, for example, a known streaming technology or progressive download technology.
  • the distribution unit 12a is used for medical purposes so that the positional relationship between the object drawn in the related content distributed to the mobile terminal 30 and the object drawn in the moving image data distributed to the external display device 40 is synchronized. Based on the position information transmitted from the diagnostic imaging apparatus 20, the distribution of related content is controlled. The distribution unit 12a also synchronizes the temporal relationship between the object drawn in the related content distributed to the mobile terminal 30 and the object drawn in the video data distributed to the external display device 40. Based on the time phase information transmitted from the medical image diagnostic apparatus 20, the distribution of related content is controlled.
  • the storage unit 13 is a hard disk, a semiconductor memory, or the like, and stores various information in the image processing apparatus 10.
  • the image processing unit 14 performs image processing on the image data input to the image processing apparatus 10.
  • the application management unit 15 manages applications installed in the image processing apparatus 10. For example, the application management unit 15 activates an application for analysis and executes analysis on the image data input to the image processing apparatus 10. In the second embodiment, the analysis result is accumulated in the storage unit 13.
  • the external display device 40 includes a communication unit 41, a main body control unit 42, a display unit 43, a storage unit 44, an input unit 45, and a moving image processing unit 46.
  • the communication unit 41 is an interface of the external display device 40, is connected to the hospital LAN or the Internet, and communicates with the mobile terminal 30 and the medical image diagnostic apparatus 20.
  • the main body control unit 42 is an electronic circuit such as a CPU or MPU, or an integrated circuit such as an ASIC or FPGA, and controls the entire processing units in the external display device 40.
  • the display unit 43 is a monitor. In the second embodiment, it is assumed that the display unit 43 has a larger screen than the display unit 34 of the mobile terminal 30. However, the embodiment is not limited to this.
  • the storage unit 44 is a hard disk, a semiconductor memory, or the like, and stores various types of information in the external display device 40.
  • the input unit 45 is a remote controller, a mouse, a keyboard, a trackball, or the like, and receives an operation on the external display device 40 from an operator.
  • the moving image processing unit 46 receives the moving image data distributed by the medical image diagnostic apparatus 20 and reproduces the received moving image data in real time. In addition, the moving image processing unit 46 receives an editing operation on the reproduced moving image data, and reflects the content of the received editing operation in the moving image data. This editing operation can be performed independently of the moving image data captured by the medical image diagnostic apparatus 20. Note that the moving image processing unit 46 can also receive an editing operation from the mobile terminal 30.
  • FIG. 8 and 9 are sequence diagrams illustrating an example of a processing procedure in the second embodiment.
  • FIG. 8 mainly shows a processing procedure at the time of inter-device connection
  • FIG. 9 mainly shows a processing procedure at the time of content distribution.
  • contents are distributed after the devices are connected, so these processing procedures are generally executed continuously.
  • (A) is a processing procedure until the mobile terminal 30 is connected.
  • an operator operating the medical image diagnostic apparatus 20 (“in-hospital user” in FIG. 8) requests the medical image diagnostic apparatus 20 to connect an out-of-hospital user.
  • "Request” is input (step S101). For example, the operator inputs “out-of-hospital user connection request” together with the mail address of the corresponding out-of-hospital user.
  • the medical image diagnostic apparatus 20 transmits an “out-hospital user connection request” to the portable terminal 30 used by the corresponding out-of-hospital user (step S102).
  • the medical image diagnostic apparatus 20 sends an “out-hospital user connection request” by e-mail to the e-mail address input by the in-hospital user.
  • step S104 user authentication is performed with the medical image diagnostic apparatus 20 (steps S105 to S106). For example, when an out-of-hospital user receives an “out-of-hospital user connection request” mail, the user opens the mail and accesses the URL described in the mail, etc., and sends a “user authentication request” (for example, to the medical image diagnostic apparatus 20). , ID and password). When the medical image diagnostic apparatus 20 succeeds in user authentication, the medical image diagnostic apparatus 20 transmits the approval result to the portable terminal 30.
  • (B) is a processing procedure until the related content is distributed to the mobile terminal.
  • the medical image diagnostic apparatus 20 requests an apparatus identifier from the image processing apparatus 10 (step S107) and receives a response (step S108). Then, the medical image diagnostic apparatus 20 transmits the apparatus identifier of the image processing apparatus 10 to the portable terminal 30 (Step S109).
  • the portable terminal 30 connects to the image processing apparatus 10 by designating the received apparatus identifier (step S110). For example, the portable terminal 30 stores the device identifier and the URL in association with each other in advance, and connects to the image processing device 10 by specifying and accessing the URL stored in association with the received device identifier. .
  • the image processing apparatus 10 When accepting a connection from the mobile terminal 30, the image processing apparatus 10 starts a session with the mobile terminal 30, starts an application, and reads related content (for example, image data, analysis result) (step S111). ).
  • the image processing apparatus 10 receives information for specifying related content from the medical image diagnostic apparatus 10 in advance, and specifies related content based on this information. do it.
  • the image processing apparatus 10 receives in advance information such as an examination ID and a patient ID, information on a treatment site, and the like from the medical image diagnostic apparatus 10, and based on these information, past image data of the same patient, Search analysis results. Then, the image processing apparatus 10 reads the searched image data and analysis results as related contents.
  • the image processing apparatus 10 distributes the related content to the mobile terminal 30 (Step S112), and the mobile terminal 30 displays the distributed related content on the display unit 34 (Step S113).
  • the related content includes still image data, moving image data, patient information, electronic medical records, examination reports, and the like.
  • (C) is a processing procedure until the real-time video is distributed to the external display device.
  • the mobile terminal 30 transmits a “distribution destination change request” requesting to change the distribution destination to the medical image diagnostic apparatus 20 (step S114).
  • the medical image diagnostic apparatus 20 responds to this (step S115).
  • the portable terminal 30 requests a device identifier from the external display device 40 (step S116) and receives a response (step S117). Then, the portable terminal 30 transmits a device identifier for identifying the external display device 40 to be changed to the medical image diagnostic device 20 (step S118).
  • the mobile terminal 30 transmits the device identifier in step S 118, for example, when the external display device is transmitted. Information for accessing 40 may be transmitted.
  • the medical image diagnostic apparatus 20 connects to the external display device 40 notified from the mobile terminal 30 (step S119), and starts real-time video distribution (step S120). Then, the external display device 40 reproduces the moving image data distributed from the medical image diagnostic device 20 on the display unit 43 (step S121).
  • (A) in FIG. 9 is a processing procedure for synchronizing display positions.
  • the medical image diagnostic apparatus 20 extracts a coronary artery to be treated by analyzing moving image data (step S201).
  • the medical image diagnostic apparatus 20 notifies the image processing apparatus 10 of positional information such as the coronary artery ID indicating the coronary artery and the angle of the C arm (step S202).
  • the medical image diagnostic apparatus 20 may also notify other information necessary for specifying the related content.
  • the image processing apparatus 10 uses the information notified from the medical image diagnostic apparatus 20 to search for the analysis result of the designated coronary artery from the past image data stored in the own apparatus or another apparatus (step S203). ).
  • the image processing device 10 synchronizes the positional relationship between the object drawn in the analysis result distributed to the mobile terminal 30 and the object drawn in the moving image data distributed to the external display device 40. Based on the angle of the C arm transmitted from the medical image diagnostic apparatus 20, the angle of the coronary artery depicted in the analysis result is adjusted.
  • the image processing apparatus 10 distributes the analysis result to the mobile terminal 30 (step S204). Then, the portable terminal 30 displays this on the display part 34 (step S205).
  • the medical image diagnostic apparatus 20 distributes the moving image in real time to the external display device 40 (step S206), and the external display device 40 displays this on the display unit 43 (step S207). In this way, the positional relationship between the object depicted in the analysis result distributed to the mobile terminal 30 and the object depicted in the moving image data distributed to the external display device 40 is synchronized.
  • (B) is a processing procedure for synchronizing the display timing.
  • the medical image diagnostic apparatus 20 acquires an ECG from the subject (step S208).
  • the medical image diagnostic apparatus 20 notifies the image processing apparatus 10 of time phase information such as ECG (step S209).
  • the medical image diagnostic apparatus 20 may also notify other information necessary for specifying the related content.
  • the image processing apparatus 10 uses the information notified from the medical image diagnostic apparatus 20 to search for moving image data as an analysis result from past image data stored in the own apparatus or another apparatus (step S210).
  • the image processing apparatus 10 has a temporal relationship between an object drawn in the moving image data of the analysis result distributed to the mobile terminal 30 and an object drawn in the moving image data distributed to the external display device 40.
  • the display timing of the object drawn in the moving image data of the analysis result is adjusted to synchronize, that is, to match the ECG transmitted from the medical image diagnostic apparatus 20.
  • the image processing apparatus 10 distributes the analysis moving image data whose display timing coincides with the ECG to the mobile terminal 30 (step S211). Then, the portable terminal 30 displays this on the display part 34 (step S212).
  • the medical image diagnostic apparatus 20 distributes the moving image in real time to the external display device 40 (step S213), and the external display device 40 displays this on the display unit 43 (step S214). In this way, the temporal relationship between the object depicted in the moving image data of the analysis result distributed to the mobile terminal 30 and the object depicted in the moving image data distributed to the external display device 40 is synchronized.
  • FIG. 7 illustrates a configuration example of the medical image control system according to the second embodiment.
  • the configuration including all devices and units is not necessarily required, and only some devices and units are added. It is good.
  • display position synchronization and display timing synchronization are not essential.
  • the processing procedures shown in FIGS. 8 and 9 can be appropriately changed.
  • the authentication processing procedure described in FIG. 8A may be omitted or may be changed to another procedure.
  • the procedure may be changed to request connection from an out-of-hospital user.
  • the processing procedure described in FIG. 8B is, for example, that a moving image is initially distributed in real time to the mobile terminal 30 and then the destination is distributed to the external display device 40 in response to a request from the mobile terminal 30. It may be changed.
  • the external display device 40 may receive distribution of moving image data in a state where the editing state in the mobile terminal 30 is taken over.
  • a real-time video may be distributed to the mobile terminal 30 and related content may be distributed to the external display device 40.
  • the mobile terminal 30 requests the image processing apparatus 10 to change the distribution destination.
  • the external display device 40 does not have to have a large screen as compared with the mobile terminal 30, and may be another mobile terminal.
  • one medical image diagnostic apparatus, one image processing apparatus, one mobile terminal, and one external display device have been described as examples. It is not limited to this.
  • some of these apparatuses communicate with each other.
  • the display position and display timing may be synchronized.
  • another device can take over the temporary editing state edited on an arbitrary device. That is, editing information received by an arbitrary device may be transmitted to another device via a network and reflected on the other device.
  • FIG. 10 is a diagram for explaining a modification of the second embodiment.
  • moving image data obtained by photographing an operating field may also be distributed in real time.
  • the biological information may also be distributed in real time.
  • the external display device 40 receives all moving image data obtained by imaging a subject, moving image data obtained by imaging an operating field, and biological information by real-time delivery, and displays them in one screen. can do.
  • real-time video distribution is received and displayed by one device, and content distribution related thereto is received by the other device (for example, a portable terminal).
  • the other device for example, a portable terminal.
  • the user of the mobile terminal can support the medical practice from a remote location while browsing a plurality of information.
  • the medical image control system according to the third embodiment takes safety measures by limiting functions of remote control.
  • the medical image diagnostic apparatus 20 local side holds a risk table in which risk levels corresponding to the types of operations and operation restriction contents are associated with each other, and performs operations from the mobile terminal 30 (remote side).
  • the operation content of the operator (remote user) of the portable terminal 30 is controlled with reference to the risk table.
  • the medical image control system according to the third embodiment has the same configuration as the medical image control system according to the first and second embodiments, and the medical image control system according to the first and second embodiments. Can be applied to the system.
  • FIG. 11 is a diagram for explaining a risk table in the third embodiment.
  • the content illustrated in FIG. 11 is merely an example, and is arbitrarily changed according to the form of operation.
  • the medical image diagnostic apparatus 20 stores a risk table in the storage unit 23.
  • the risk table associates risk levels, functions (operations), and operation restriction contents.
  • the risk level “A” is a level with a very high risk to the human body
  • “B” is a level with a high risk to the human body
  • “C” is a level with a low risk to the human body. It is.
  • “starting photographing” is associated with the risk level “A” as a function (operation).
  • the risk table stores “not operable” in association with “shooting start”.
  • the risk level “B” is associated with “change the condition of an image being shot” as a function (operation).
  • “stored image operation” is associated with the risk level “C” as a function (operation). Since such an operation has a low risk, there is no need to particularly limit the remote user. Therefore, “operable” is stored in the risk table in association with “operation of stored image”.
  • the reflecting unit 22b of the medical image diagnostic apparatus 20 when receiving the control information from the mobile terminal 30, the reflecting unit 22b of the medical image diagnostic apparatus 20 identifies and identifies the risk level of the operation content indicated by the control information with reference to the risk table. Reflection of the medical image diagnosis apparatus 20 in the processing is controlled according to the restriction content associated with the risk level.
  • FIG. 12 and FIG. 13 are diagrams for explaining an example of function restriction of remote control in the third embodiment.
  • a local user who operates the medical image diagnostic apparatus 20 draws an ROI on the moving image data reproduced on the console screen (S1).
  • the moving image data on which the ROI is drawn is distributed to the mobile terminal 30 (S2).
  • the mobile terminal 30 accepts editing of the ROI as an editing operation on the moving image data (S3), and transfers the accepted editing information to the medical image diagnostic apparatus 20 (S4).
  • the reflection unit 22b refers to the risk table, evaluates the risk level of the operation content (ROI editing) indicated by the control information, and determines, for example, the risk level “B” ( S5).
  • the risk level “B” is a level at which an operation is permitted on the assumption of approval by a local user. Therefore, for example, the reflection unit 22b can display different display attributes (for example, for the moving image data reproduced on the console screen) so that the ROI drawn by the local user and the ROI edited by the remote user can be distinguished.
  • the ROI is displayed in different colors, different shapes, combinations thereof, etc. (S6).
  • the reflecting unit 22b displays a comparison screen. On this comparison screen, the ROI drawn by the local user is indicated by a dotted ellipse, and the ROI edited by the remote user is a solid square. It is shown in When approving on the local side, it is possible to distinguish and compare each.
  • the local user views this comparison screen, determines whether or not to approve editing of the ROI by the remote user, and inputs the determination result to the medical image diagnostic apparatus 20. Then, for example, the reflection unit 22b displays a result display screen showing the final ROI result according to the presence or absence of approval by the local user. For example, when approved, the reflection unit 22b adopts the ROI edited by the remote user and executes subsequent processing. On the other hand, when the reflection unit 22b is not approved, the reflection unit 22b adopts the ROI drawn by the local user and executes subsequent processing.
  • the reflection unit 22b rejects the edited content by the remote user, and adopts the ROI drawn by the local user without executing the ROI edited by the remote user, and executes the subsequent processing (S6).
  • the reflecting unit 22b transfers the screen in the original state (that is, the state where the ROI drawn by the local user is displayed) to the mobile terminal 30 (S7).
  • the reflecting unit 22b may transfer notification information indicating that the operation has not been accepted, for example.
  • FIG. 14 is a diagram for explaining a modified example of the function restriction of the remote control in the third embodiment.
  • the distribution unit 22a of the medical image diagnostic apparatus 20 refers to the risk table when distributing moving image data to the mobile terminal 30, and operates as an operation screen for accepting an operation on the mobile terminal 30 based on the restriction content. An operation screen with limited contents may be distributed.
  • an operation screen for accepting an operation is displayed on the console screen of the medical image diagnostic apparatus 20 or the display unit 34 of the mobile terminal 30, and operation buttons for each function are displayed on the operation screen.
  • “function 1” is an operation button for executing an operation at risk level “A”
  • “function 2” is an operation button for executing an operation at risk level “B”.
  • 3 is an operation button for executing the operation of the risk level“ C ”.
  • the medical image diagnostic apparatus 20 displays all operation buttons of “function 1”, “function 2”, and “function 3” on the console screen.
  • the distribution unit 22a refers to the risk table and evaluates the risk level of each function displayed on the operation screen on the mobile terminal 30 side (S1). Then, the distribution unit 22a displays, on the mobile terminal 30, an operation screen that has been changed so that the operation button of the function corresponding to the risk level “A” is hidden (or inoperable) on the mobile terminal 30 side.
  • the “function 1” operation buttons are not displayed, but the “function 2” and “function 3” operation buttons are displayed. For this reason, the remote user operates the function of the risk level “B” or “C” and transfers the edited result (S3).
  • the medical image diagnostic apparatus 20 may store a history of operations performed by the local user and the remote user, a history indicating which operation is actually applied, and which local user approves. In this case, for example, the medical image diagnostic apparatus 20 may compare the operation by the local user with the operation by the remote user and evaluate the difference. In addition, the medical image diagnostic apparatus 20 may accept a rewinding operation and reproduce the past state. For example, when an operation by a remote user (for example, an operation at a risk level “C”) is performed while the local user leaves the place, the local user stores the history accumulated in the medical image diagnostic apparatus 20. Browsing can be specified, for example, to rewind the processing state to the state of the latest operation by the operation performed by the local user himself / herself. When receiving the designation of the history, the medical image diagnostic apparatus 20 reproduces the state of the designated history.
  • a remote user for example, an operation at a risk level “C”
  • Browsing can be specified, for example, to rewind the processing state to the state of the
  • the embodiment is not limited to this.
  • a configuration in which an apparatus different from the medical image diagnostic apparatus 20 is interposed in the communication between the medical image diagnostic apparatus 20 and the portable terminal 30 and the operation content of the remote user is limited based on a held risk table may be used.
  • the medical image control system and the portable terminal according to the embodiment are not limited to the above embodiment.
  • the medical image diagnostic apparatus 20 may be an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, a PET (Positron Emission computed Tomography) apparatus, a SPECT-CT apparatus, a PET-CT apparatus, or the like. Good.
  • the medical diagnostic imaging apparatus 20 may be replaced with a radiation therapy apparatus such as a gamma knife or a cyber knife.
  • the medical image diagnostic apparatus 20 may have a configuration in which the function described in the above embodiment is provided in another apparatus independent of the medical image diagnostic apparatus.
  • this other apparatus does not include a processing unit such as a photographing unit, but may include a real-time video distribution function, a time synchronization function, a position synchronization function, and the like.
  • the image processing apparatus 10 has been described by taking a workstation (WS (workstation)) equipped with an application for image processing as an example, but the embodiment is not limited thereto. Absent.
  • the image processing apparatus 10 may be replaced with an image storage apparatus, a radiation treatment planning apparatus, or the like when PACS (Picture Archiving and Communication System) is introduced.
  • PACS Picture Archiving and Communication System
  • the TV apparatus, the PC, and the like have been described as examples of the external display device 40.
  • the embodiment is not limited to this.
  • the external display device 40 may be replaced with a mobile terminal different from the mobile terminal 30 that displays related content.
  • the installation location of the medical image diagnostic apparatus 20 and the usage location of the mobile terminal 30 are not limited to the inside of the hospital, and may be, for example, in an ambulance or outdoors such as a disaster site. Any environment may be used as long as the medical image diagnostic apparatus 20 and the mobile terminal 30 can communicate directly or indirectly.
  • the second embodiment can be similarly realized as long as the environment can communicate directly or indirectly with the image processing apparatus 10 and the external display apparatus 40.
  • the moving image data collected and generated by the medical image diagnostic apparatus 20 is described as an example of moving image data distributed in real time.
  • the moving image data distributed in real time may be replaced with moving image data obtained by shooting an angio room, an operating room, an ambulance, or the like, for example.
  • the device that distributes the moving image data in real time and the mobile terminal 30 can communicate directly or indirectly.
  • regeneration of the moving image data in the portable terminal 30 was mentioned as an example, embodiment was not restricted to this.
  • still image data, electronic medical records, examination reports, patient information, and the like may be displayed on the mobile terminal 30.
  • real-time moving image data may be displayed on the external display device 40, and patient information of a patient depicted in the moving image data may be displayed on the mobile terminal 30.
  • the medical image diagnostic apparatus 20 and the mobile terminal 30 are indirectly connected via the network 50 .
  • the embodiment is not limited to this.
  • the medical image diagnostic apparatus 20 and the mobile terminal 30 may be directly connected.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • all or a part of each processing function performed in each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • the image processing method described in the above embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation.
  • This image processing program can be distributed via a network such as the Internet.
  • the program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 実施形態の医用画像制御システムは、医用画像診断装置(20)と、携帯端末(30)とを備える。医用画像診断装置(20)は、収集部(26)と配信部(22a)と反映部(22b)とを備える。収集部(26)は、所定の撮影条件に従って被検体を動画撮影し、動画データを収集する。配信部(22a)は、動画データを携帯端末(30)に即時に配信する。反映部(22b)は、携帯端末(30)から送信された制御情報を受信し、受信した制御情報を医用画像診断装置(20)による処理に反映する。携帯端末(30)は、再生部(32a)と制御情報送信部(36a)とを備える。再生部(32a)は、配信部(22a)によって配信された動画データを受信し、受信した動画データを即時に再生する。制御情報送信部(36a)は、医用画像診断装置(20)に関する操作を受け付け、受け付けた操作内容を示す制御情報を医用画像診断装置(20)に送信する。

Description

医用画像制御システム及び携帯端末
 本発明の実施形態は、医用画像制御システム及び携帯端末に関する。
 近年、医療現場における医師不足が深刻な問題となっており、その対策のひとつとして遠隔医療支援システムが登場した。遠隔医療支援システムは、主に病院内(以下、院内)に設置された装置に対する遠隔からのアクセスを実現することで、院内の医療行為を支援するシステムである。
 例えば、緊急を要する事態が深夜に発生した場合、以前であれば、担当の医師が深夜であるにも関わらず病院に駆けつけたり、音声データのみの電話によって現場に指示したりすることが一般的であった。この点、遠隔医療支援システムの登場により、医師は、自宅や出張先などから院内の装置にアクセスし、画像データなどの情報をPC(Personal Computer)によって閲覧することが可能になった。更に、携帯電話やタブレット(tablet)PCなどの携帯端末の普及に伴い、自宅や出張先に限らず、例えば車や新幹線で移動中の場合などにも、院内の医療行為を支援することが可能なシステムが望まれている。
特開2009-75927号公報 特開2006-198241号公報 特開2003-93354号公報 特開2005-34207号公報
"遠隔画像診断治療補助システム「i-Stroke(アイストローク)」"、2011年6月16日、富士フイルム株式会社、[平成23年7月20日検索]、インターネット<URL:http://www.fujifilm.co.jp/corporate/news/articleffnr_0519.html>
 本発明が解決しようとする課題は、携帯端末を用いて医療行為を支援することが可能な医用画像制御システム及び携帯端末を提供することである。
 実施形態の医用画像制御システムは、医用画像診断装置と、携帯端末とを備える。医用画像診断装置は、収集部と、配信部と、反映部とを備える。収集部は、所定の撮影条件に従って被検体を動画撮影し、動画データを収集する。配信部は、前記動画データを携帯端末に即時に配信する。反映部は、前記携帯端末から送信された制御情報を受信し、受信した制御情報を前記医用画像診断装置による処理に反映する。携帯端末は、再生部と、制御情報送信部とを備える。再生部は、前記配信部によって配信された動画データを受信し、受信した動画データを即時に再生する。制御情報送信部は、前記医用画像診断装置に関する操作を受け付け、受け付けた操作内容を示す制御情報を前記医用画像診断装置に送信する。
図1は、第1の実施形態に係る医用画像制御システムの概念を説明するための図である。 図2は、第1の実施形態に係る医用画像制御システムの構成例を説明するための図である。 図3は、第1の実施形態における処理手順の一例を示すフローチャートである。 図4は、第2の実施形態に係る医用画像制御システムの概念を説明するための図である。 図5は、第2の実施形態に係る医用画像制御システムの概念を説明するための図である。 図6は、第2の実施形態に係る医用画像制御システムの概念を説明するための図である。 図7は、第2の実施形態に係る医用画像制御システムの構成例を説明するための図である。 図8は、第2の実施形態における処理手順の一例を示すシーケンス図である。 図9は、第2の実施形態における処理手順の一例を示すシーケンス図である。 図10は、第2の実施形態の変形例を説明するための図である。 図11は、第3の実施形態におけるリスクテーブルを説明するための図である。 図12は、第3の実施形態における遠隔制御の機能制限の一例を説明するための図である。 図13は、第3の実施形態における遠隔制御の機能制限の一例を説明するための図である。 図14は、第3の実施形態における遠隔制御の機能制限の変形例を説明するための図である。
 以下、添付図面を参照しながら、医用画像制御システム及び携帯端末の実施形態を詳細に説明する。
(第1の実施形態)
 図1は、第1の実施形態に係る医用画像制御システムの概念を説明するための図である。図1に示すように、第1の実施形態に係る医用画像制御システムは、医用画像診断装置20と携帯端末30とを備え、医用画像診断装置20が、携帯端末30に対してリアルタイム(real time)の動画配信を行う。すなわち、医用画像診断装置20は、被検体を動画撮影することにより収集した動画データを携帯端末30に即時に配信する。
 また、第1の実施形態において、携帯端末30は、医用画像診断装置20に関する操作を受け付け、受け付けた操作内容を示す制御情報を医用画像診断装置20に送信する。例えば、医用画像診断装置20がX線診断装置の場合、携帯端末30は、図1に示すように、医用画像診断装置20における撮影条件に関する操作として、Cアーム(arm)の角度を指定する操作を受け付け、受け付けた角度の指定情報を、医用画像診断装置20に送信する。医用画像診断装置20は、この指定情報を受信すると、携帯端末30によって指定されたCアームの角度を撮影条件に反映し、撮影を行う。
 また、例えば、携帯端末30は、図1に示すように、医用画像診断装置20から配信された動画データ(例えば、X線画像)に対する編集操作(例えば、ROI(Region Of Interest)の描画)を受け付け、受け付けた編集情報を、医用画像診断装置20に送信する。医用画像診断装置20は、この編集情報を受信すると、受信した編集情報を医用画像診断装置20にて再生される動画データに反映する。例えば、医用画像診断装置20は、医用画像診断装置20が備えるコンソール(console)画面上で再生される動画データ上に、携帯端末30にて描画されたROIを表示する。
 図2は、第1の実施形態に係る医用画像制御システムの構成例を説明するための図である。図2に示すように、医用画像診断装置20と携帯端末30とは、ネットワーク50を介して接続される。例えば、無線LAN(Local Area Network)や携帯電話網などを経由してインターネットに接続可能な携帯端末30は、このインターネットを介して、院内LANに設置された医用画像診断装置20にアクセスする。なお、医用画像制御システムが院内に閉じた環境で実現される場合、例えば、携帯端末30は、院内LANを介して、医用画像診断装置20にアクセスする。
 医用画像診断装置20は、通信部21と、本体制御部22と、記憶部23と、表示部24と、入力部25と、撮影部26と、再構成部27と、演算処理部28と、遠隔装置用演算処理部29aとを備える。
 通信部21は、院内LANに接続する医用画像診断装置20のインタフェースである。通信部21は、ハブ(hub)などのネットワーク機器を経由して院内LANや院外のインターネットに接続され、携帯端末30との間で通信を行う。
 本体制御部22は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路であり、医用画像診断装置20内の各処理部全体を制御する。本体制御部22は、配信部22aと、反映部22bとを備える。
 配信部22aは、撮影部26によって収集され、再構成部27や演算処理部28によって生成された動画データを、携帯端末30にリアルタイムにプッシュ型で配信する。配信部22aは、例えば、公知のストリーミング(streaming)技術(例えば、RTSP(Real Time Streaming Protocol)など)や、プログレッシブダウンロード(progressive download)技術を用いて実現することが可能である。
 反映部22bは、携帯端末30から送信された制御情報を受信し、受信した制御情報を、医用画像診断装置20による処理に反映する。例えば、反映部22bは、携帯端末30から撮影条件の設定情報(例えば、Cアームの角度の指定情報)を受信した場合には、受信した設定情報を、医用画像診断装置20にて用いられる撮影条件に反映する。また、例えば、反映部22bは、携帯端末30から動画データに対する編集情報(例えば、ROIの編集情報)を受信した場合には、受信した編集情報を、医用画像診断装置20にて再生される動画データに反映する。
 記憶部23は、ハードディスク、半導体メモリなどであり、医用画像診断装置20における各種情報を記憶する。例えば、記憶部23は、撮影部26によって用いられる撮影条件や、撮影部26によって収集された撮影データ、あるいは、再構成部27によって生成された画像データや、演算処理部28によって生成された画像データなどを記憶する。
 表示部24は、モニタであり、医用画像診断装置20のコンソール画面として、医用画像診断装置20における各種情報を表示する。例えば、表示部24は、医用画像診断装置20に対する操作を受け付けるためのGUI(Graphical User Interface)や、撮影中や撮影後に、再構成部27や演算処理部28によって生成された画像データなどを表示する。入力部25は、マウス、キーボード、トラックボールなどであり、医用画像診断装置20に対する操作を操作者から受け付ける。
 撮影部26は、所定の撮影条件に従って医用画像診断装置20のハードウェアを制御することで被検体を撮影し、撮影データを収集する。例えば、医用画像診断装置20がX線診断装置の場合、撮影部26は、操作者による撮影開始ボタンの押下を受け付けると、Cアーム及びX線管を制御することで被検体を撮影し、検出器を制御することで被検体を透過したX線を受信する。また、第1の実施形態に係る撮影部26は、被検体を動画撮影し、動画撮影データを収集する。
 再構成部27は、撮影部26によって収集された撮影データを再構成し、画像データを生成する。例えば、再構成部27は、撮影部26によって収集された動画撮影データを再構成し、動画データを生成する。
 演算処理部28は、再構成部27によって生成された画像データに対して画像処理を施す。例えば、医用画像診断装置20がX線CT(Computed Tomography)装置の場合、演算処理部28は、再構成部27によって生成されたスライス画像の画像データをボリュームデータに変換し、画像データ間の位置合わせや特定領域の抽出などの画像処理を施した後、ボリュームレンダリング処理を行う。
 遠隔装置用演算処理部29aは、医用画像診断装置20及び携帯端末30それぞれにおいて異なる操作を受け付け、受け付けた操作を並列に実行する場合に、携帯端末30専用の処理を行う。例えば、医用画像診断装置20の表示部24(コンソール画面、ローカル画面とも称する)及び携帯端末30の表示部34(リモート画面)それぞれにおいて異なる操作を受け付け、受け付けた操作を並列に実行する場合に、リモート画面専用の処理を行う。この場合、例えば、ローカル画面とリモート画面とで異なるコンテンツが表示され、異なる操作が並列に実行されるなどする。なお、ローカル画面及びリモート画面の双方にて医用画像診断装置20の制御が可能な場合、一方のみが制御権を持つように制御してもよい。例えば、携帯端末30が制御権を持つ場合、医用画像診断装置20にて収集され、記憶されている動画データに対して、ローカル画面からの操作はできず、リモート画面からの操作のみが有効となる。
 携帯端末30は、PCやタブレット式PC、PDA(Personal Digital Assistant)、携帯電話などである。図2に示すように、携帯端末30は、通信部31と、携帯端末制御部32と、入力部33と、表示部34と、記憶部35と、医用画像診断装置遠隔制御部36aとを備える。
 通信部31は、携帯端末30のインタフェースであり、無線アクセスポイントなど経由して院内LANやインターネットに接続され、医用画像診断装置20との間で通信を行う。携帯端末制御部32は、CPUやMPUなどの電子回路、ASICやFPGAなどの集積回路であり、携帯端末30内の各処理部全体を制御する。携帯端末制御部32は、再生部32aと、動画データ編集部32bとを備える。
 再生部32aは、医用画像診断装置20から配信された動画データを受信し、受信した動画データを、表示部34にリアルタイムに再生する。動画データ編集部32bは、再生部32aによって再生される動画データに対する編集操作を受け付け、受け付けた編集操作の内容を、再生部32aによって再生される動画データに反映する。例えば、動画データ編集部32bは、再生中の動画データに対するROIの描画を受け付けると、受け付けたROIを再生中の動画データに表示する。なお、動画データ編集部32bによって受け付けられた編集操作の内容は、記憶部35に記憶されてもよい。
 入力部33は、タッチパネル、専用ボタン、ジャイロセンサなどであり、携帯端末30に対する操作を操作者から受け付ける。表示部34は、液晶パネルなどであり、携帯端末30の画面(リモート画面)として、携帯端末30における各種情報を表示する。例えば、表示部34は、医用画像診断装置20から送信された画像データや、医用画像診断装置20に対する操作を受け付けるためのGUIなどを表示する。なお、入力部33がタッチパネルの場合、入力部33と表示部34とは兼用される場合もある。記憶部35は、ハードディスク、半導体メモリなどであり、携帯端末30における各種情報を記憶する。
 医用画像診断装置遠隔制御部36aは、医用画像診断装置20に関する操作を受け付け、受け付けた操作内容を示す制御情報を医用画像診断装置20に送信することで、医用画像診断装置20を遠隔制御する。例えば、医用画像診断装置遠隔制御部36aは、撮影条件に関する操作(例えば、Cアームの角度の指定)を受け付け、受け付けた撮影条件の設定情報を医用画像診断装置20に送信する。また、例えば、医用画像診断装置遠隔制御部36aは、動画データに対する編集情報(例えば、ROIの描画)を受け付け、受け付けた編集情報を医用画像診断装置20に送信する。なお、医用画像診断装置20側では、携帯端末30から送信された編集情報を受信し、これをローカル画面に再生中の動画データに反映したり、バックグラウンドで記憶部23に保存したりする。また、編集情報は、携帯端末30の記憶部35に記憶されてもよい。
 図3は、第1の実施形態における処理手順の一例を示すフローチャートである。図3に示すように、第1の実施形態に係る医用画像制御システムにおいて、まず、検査若しくは治療が開始され、医用画像診断装置20において撮影が開始される(ステップS01)。
 次に、セキュリティの観点から、医用画像診断装置20と携帯端末30との間で、相互認証が行われる(ステップS02)。例えば、医用画像診断装置20と携帯端末30との間で互いの識別子を取得し、安全な機器であるか否かを認証する。
 一例を説明すると、例えば、携帯端末30の利用者は、接続先ID(医用画像診断装置20のID)が登録済みであるか否かを確認する(ステップS02-1)。登録済みである場合には(ステップS02-1肯定)、携帯端末30の利用者は、登録済みの接続先IDを選択する操作を行う(ステップS02-2)。一方、登録済みでない場合には(ステップS02-1否定)、医用画像診断装置20の利用者が、医用画像診断装置20から携帯端末30に対して接続依頼通知を送信するように(例えば、メール送信するように)操作する(ステップS02-3)。すると、携帯端末30の利用者は、接続依頼通知内の接続先IDを選択する操作を行う(ステップS02-4)。
 こうして、携帯端末30の利用者は、接続先IDを選択することで、例えば接続先IDに対応付けられたURL(Uniform Resource Locator)にアクセスして携帯端末30から医用画像診断装置20にログインし(ステップS02-5)、医用画像診断装置20と携帯端末30との間で接続が確立する(ステップS02-6)。なお、医用画像診断装置20と携帯端末30との間で接続を確立する処理は、上述した例に限られるものではなく、その他の公知の認証技術を用いて実現することが可能である。
 続いて、医用画像診断装置20の配信部22aが、携帯端末30に対して動画データやその他のコンテンツを送信する(ステップS03)。例えば、配信部22aは、現在ローカル画面に再生中(若しくは表示中)のコンテンツを携帯端末30へ転送する(ステップS03-1)。動画データを配信する場合は、上述したように、例えば、公知のストリーミング技術やプログレッシブダウンロード技術を用いる。
 具体例を挙げて説明すると、配信部22aが、撮影条件を入力するメニュー画面を携帯端末30に対して送信することで、リモート画面には、このメニュー画面が表示される(ステップS03-2)。携帯端末30の利用者は、例えば、このメニュー画面に数値や文字を入力することで、X線管の管電流や管電圧などの撮影条件を入力する。すると、携帯端末30の医用画像診断装置遠隔制御部36aは、利用者によって入力された撮影条件の設定情報を、医用画像診断装置20に送信する。医用画像診断装置20側では、これらの撮影条件を反映した撮影を行う。このように、携帯端末30から医用画像診断装置20における撮影を制御することが可能である。
 また、配信部22aが、ローカル画面に再生中の動画データを携帯端末30に対して送信することで、リモート画面には、ローカル画面と同じ動画データが再生される(ステップS03-3)。携帯端末30の利用者は、例えば、この動画データ上で、マウスによるドラッグ操作や、携帯端末30を傾けるといった操作によって、撮影方向などの撮影条件を入力する。すると、携帯端末30の医用画像診断装置遠隔制御部36aは、利用者によって入力された撮影条件の設定情報を、医用画像診断装置20に送信する。医用画像診断装置20側では、これらの撮影条件を反映した撮影を行う。このように、携帯端末30から医用画像診断装置20における撮影を制御することが可能である。
 また、配信部22aが、ローカル画面に再生中の動画データとは異なる動画データ(例えば、医用画像診断装置20に保存されている動画データ)を携帯端末30に対して送信することで、リモート画面には、ローカル画面とは異なる動画データが再生される(ステップS03-4)。携帯端末30の利用者は、例えば、この動画データに対して、ROIの描画などを行う。すると、携帯端末30の動画データ編集部32bが、利用者によって入力された編集情報を、携帯端末30の記憶部35に保存したり、医用画像診断装置遠隔制御部36aが、利用者によって入力された編集情報を、医用画像診断装置20に送信したりする。このように、医用画像診断装置20が配信する動画データの再生状態を、医用画像診断装置20において再生されている動画データの再生状態とは独立して指定することができ、携帯端末30側にて編集することができる。
(第1の実施形態の効果)
 上述したように、第1の実施形態によれば、医用画像診断装置20にて撮影中の動画データを、携帯端末30にてリアルタイムに再生することが可能になる。また、第1の実施形態によれば、医用画像診断装置20にて行われる撮影の撮影条件を、携帯端末30から制御することが可能になる。また、第1の実施形態によれば、医用画像診断装置20から配信された動画データを、携帯端末30側で編集することが可能になる。なお、医用画像制御システムは、必ずしもこれらの機能全てを備える必要はなく、一部の機能を備えるのみでもよい。例えば、携帯端末30に対するリアルタイムの動画配信のみを行い、携帯端末30における撮影条件の制御や編集を受け付けないシステムであってもよい。また、例えば、携帯端末30側で実行可能な操作を、利用者毎のアクセス権限によって制御してもよい。
(第2の実施形態)
 図4~6は、第2の実施形態に係る医用画像制御システムの概念を説明するための図である。
 第2の実施形態に係る医用画像制御システムは、図4に示すように、医用画像診断装置20及び携帯端末30の他に、画像処理装置10及び外部表示装置40を備える。医用画像診断装置20からリアルタイムに行われる動画配信の配信先は外部表示装置40に変更され、携帯端末30には、外部表示装置40に配信される動画データと関連する別のコンテンツ(以下、関連コンテンツ)が、画像処理装置10から同時配信される。関連コンテンツを特定する情報は、医用画像診断装置20から画像処理装置10に送信される。
 例えば、外部表示装置40は、TV(television)装置やPCなどであり、例えば、携帯端末30の表示部34に比較して大画面の表示部を有するものである。医用画像診断装置20から配信される動画データについては大画面の外部表示装置40が表示し、一方、携帯端末30は、画像処理装置10から関連コンテンツを受信して表示する。
 関連コンテンツの一例を説明する。例えば、医用画像診断装置20は、自装置にて収集された動画データに対して画像処理による解析を行うことでカテーテルの位置を特定し、特定したカテーテルの位置から治療対象の冠動脈部位を特定し、特定した冠動脈部位を示す冠動脈IDを画像処理装置10に通知する。すると、画像処理装置10は、自装置に記憶している同じ被検体に関する過去の画像データから、冠動脈IDによって示される冠動脈の解析結果の画像データを検索し、検索した画像データを関連コンテンツとして携帯端末30に送信する。この結果、大画面の外部表示装置40には、治療中の冠動脈部位の動画データがリアルタイムに表示され、携帯端末30には、同じ患者の過去の冠動脈部位の解析結果が表示される。携帯端末30の利用者は、治療中の患者の過去の冠動脈部位の解析結果を参照しながら、治療中の動画データを確認することができる。例えば、携帯端末30の表示部34が小さい場合などに有効である。
 また、図5に示すように、第2の実施形態に係る医用画像制御システムは、更に応用として、リアルタイムに配信される動画データと関連コンテンツとを同期させるように制御する。
 例えば、画像処理装置10は、リアルタイムに配信される動画データ内の位置情報(例えば、治療対象部位や観察方向)を用いて、リアルタイムに配信される動画データと関連コンテンツとの表示位置を同期させるように制御する。例えば、医用画像診断装置20は、治療対象の冠動脈部位を特定して冠動脈IDを画像処理装置10に通知するとともに、X線診断装置である医用画像診断装置20のCアームの角度情報を画像処理装置10に通知する。すると、画像処理装置10は、自装置に記憶している同じ被検体に関する過去の画像データから、冠動脈IDによって示される冠動脈の解析結果の画像データを検索し、検索した画像データについて、通知されたCアームの角度に応じた画像データを生成する。そして、画像処理装置10は、生成した画像データを携帯端末30に配信する。
 この結果、大画面の外部表示装置40には、治療中の冠動脈部位の動画データがリアルタイムに表示され、携帯端末30には、同じ患者の過去の冠動脈部位の解析結果が、同じ観察方向から観察される解析結果として表示される。すなわち、表示位置が同期した解析結果の画像が携帯端末30に配信される。
 また、例えば、画像処理装置10は、リアルタイムに配信される動画データ内の時相情報(例えば、ECG(electrocardiogram)や呼吸などの生体情報)を用いて、リアルタイムに配信される動画データと関連コンテンツとの表示タイミングを同期させるように制御する。例えば、医用画像診断装置20は、被検体のECGを取得し、ECG(又は主要波(例えばR波)のタイミング)を画像処理装置10に送信する。すると、画像処理装置10は、同じ被検体に関する過去の画像データが、医用画像診断装置20から送信されるECGのタイミングと一致するように表示を制御する。そして、画像処理装置10は、タイミングを制御したこの画像データを、携帯端末30に配信する。
 この結果、大画面の外部表示装置40には、治療中の冠動脈部位の動画データがリアルタイムに表示され、携帯端末30には、同じ患者の過去の冠動脈部位の解析結果が、同じECGのタイミングで同期しながら表示される。すなわち、表示タイミングが同期した解析結果の画像が携帯端末30に配信される。
 なお、上述した表示位置の同期や表示タイミングの同期は、医用画像診断装置20のコンソール画面、携帯端末30の画面、及び外部表示装置40の画面の全てで同期するように制御してもよいし、その一部で同期するように制御してもよい。また、同期させる情報も、全種類の情報が同期するように制御してもよいし、一部の情報のみが同期するように制御してもよい。また、同一のコンテンツ間で同期してもよいし、異なるコンテンツ間で同期してもよい。
 また、図6に示すように、第2の実施形態に係る医用画像制御システムは、更に応用として、携帯端末30が、画像処理装置10や医用画像診断装置20を介して、外部表示装置40にて表示中の動画データを制御する。すなわち、携帯端末30にて撮影条件の入力や動画データの編集が行われると、これらの情報が画像処理装置10を介して医用画像診断装置20に転送される。そして、医用画像診断装置20がこれらの情報に従って撮影や編集を行うことで、医用画像診断装置20から外部表示装置40にリアルタイムに配信される動画データに、携帯端末30にて行われた制御内容が反映される。
 例えば、携帯端末30は、図6に示すように、画像処理装置10から配信された動画データ上で、Cアームの角度を指定する操作(再生中のボリュームレンダリング画像を回転させる、若しくは、ジャイロセンサを備えた携帯端末30自体を回転させるなど)や、ROIの描画などを受け付け、受け付けたこれらの情報を画像処理装置10に送信する。画像処理装置10は、これらの情報を受信すると、受信した情報を医用画像診断装置20に転送する。すると、例えば、医用画像診断装置20は、画像処理装置10から転送されたCアームの角度の指定情報を撮影条件に反映して撮影を行う。また、例えば、医用画像診断装置20は、画像処理装置10から転送されたROIを、配信中の動画データに反映する。そして、医用画像診断装置20は、新たな撮影条件で収集された動画データを、コンソール画面上に表示するとともに、外部表示装置40にリアルタイムに配信する。また、この動画データ上には、携帯端末30にて描画されたROIが表示される。
 図7は、第2の実施形態に係る医用画像制御システムの構成例を説明するための図である。図7において、点線で囲んだ装置や部が、第1の実施形態の構成例に更に追加されたものである。図7に示すように、医用画像診断装置20は、更に、時間同期信号処理部29bと、位置同期信号処理部29cとを備える。
 時間同期信号処理部29bは、外部表示装置40に配信される動画データと携帯端末30に配信される関連コンテンツとの表示タイミングを同期させるための処理を行う。具体的には、時間同期信号処理部29bは、動画データに描出される対象物の時相情報を画像処理装置10に送信する。例えば、時間同期信号処理部29bは、被検体のECGを取得し、ECG(又は主要波(例えばR波)のタイミング)を画像処理装置10に送信する。
 位置同期信号処理部29cは、外部表示装置40に配信される動画データと携帯端末30に配信される関連コンテンツとの表示位置を同期させるための処理を行う。具体的には、位置同期信号処理部29cは、動画データに描出される対象物の位置情報を画像処理装置10に送信する。例えば、位置同期信号処理部29cは、治療対象部位や観察方向を特定し、これらの情報を画像処理装置10に送信する。なお、表示位置の同期及び表示タイミングの同期の双方が行われずに表示タイミングの同期のみが行われる場合、位置同期信号処理部29cによって特定された治療対象部位の情報などは、必要に応じて時間同期信号処理部29bに通知され、時間同期信号処理部29bから画像処理装置10に送信されればよい。
 図7に示すように、携帯端末30は、更に、画像処理装置遠隔制御部36bと、外部表示装置遠隔制御部36cと、位置同期制御部37aと、時間同期制御部37bとを備える。
 画像処理装置遠隔制御部36bは、医用画像診断装置遠隔制御部36aと同様、画像処理装置10に関する操作を受け付け、受け付けた操作内容を示す制御情報を画像処理装置10に送信することで、画像処理装置10を遠隔制御する。例えば、画像処理装置遠隔制御部36bは、関連コンテンツに関する操作を受け付け、受け付けた操作内容を示す制御情報を画像処理装置10に送信する。
 外部表示装置遠隔制御部36cは、医用画像診断装置遠隔制御部36aと同様、外部表示装置40に関する操作を受け付け、受け付けた操作内容を示す制御情報を外部表示装置40に送信することで、外部表示装置40を遠隔制御する。なお、携帯端末30と外部表示装置40とは、直接接続されてもよい。この場合、携帯端末30は、外部表示装置40のいわゆる操作用リモコンとして機能する。
 位置同期制御部37a及び時間同期制御部37bは、携帯端末30にて再生される関連コンテンツについて、表示位置の同期や表示タイミングの同期を制御する。ここで、後述するシーケンス図においては、画像処理装置10が、表示位置の同期や表示タイミングの同期を制御する例を説明する。すなわち、画像処理装置10が、表示位置や表示タイミングを同期させた上で、関連コンテンツを携帯端末30に配信する例を説明する。しかしながら、実施形態はこれに限られるものではなく、携帯端末30側にて、表示位置の同期や表示タイミングの同期を制御してもよい。例えば、位置同期制御部37a及び時間同期制御部37bは、画像処理装置10から、関連コンテンツとともに位置情報や時相情報を受信し、これらの位置情報や時相情報を用いて、関連コンテンツの再生を制御する。
 図7に示すように、画像処理装置10は、通信部11と、本体制御部12と、記憶部13と、画像処理部14と、アプリケーション管理部15とを備える。通信部11は、院内LANに接続する画像処理装置10のインタフェースである。通信部21は、ハブなどのネットワーク機器を経由して院内LANや院外のインターネットに接続され、医用画像診断装置20や携帯端末30との間で通信を行う。
 本体制御部12は、CPUやMPUなどの電子回路、ASICやFPGAなどの集積回路であり、画像処理装置10内の各処理部全体を制御する。また、本体制御部12は、配信部12aを備える。配信部12aは、医用画像診断装置20から送信された情報(例えば、位置情報の他、検査IDや患者IDなどが送信されてもよい)に基づいて、記憶部13に記憶されているコンテンツ群の中から関連コンテンツを特定し、特定した関連コンテンツを携帯端末30にリアルタイムにプッシュ型で配信する。配信部12aは、例えば、公知のストリーミング技術やプログレッシブダウンロード技術を用いて実現することが可能である。
 また、配信部12aは、携帯端末30に配信する関連コンテンツに描出される対象物と、外部表示装置40に配信される動画データに描出される対象物との位置関係が同期するように、医用画像診断装置20から送信された位置情報に基づいて、関連コンテンツの配信を制御する。また、配信部12aは、携帯端末30に配信する関連コンテンツに描出される対象物と、外部表示装置40に配信される動画データに描出される対象物との時相関係が同期するように、医用画像診断装置20から送信された時相情報に基づいて、関連コンテンツの配信を制御する。
 記憶部13は、ハードディスク、半導体メモリなどであり、画像処理装置10における各種情報を記憶する。画像処理部14は、画像処理装置10に入力された画像データに対して画像処理を施す。アプリケーション管理部15は、画像処理装置10に搭載されたアプリケーションを管理する。例えば、アプリケーション管理部15は、解析のためのアプリケーションを起動し、画像処理装置10に入力された画像データに対する解析を実行する。なお、第2の実施形態において、解析結果は、記憶部13に蓄積される。
 図7に示すように、外部表示装置40は、通信部41と、本体制御部42と、表示部43と、記憶部44と、入力部45と、動画処理部46とを備える。通信部41は、外部表示装置40のインタフェースであり、院内LANやインターネットに接続され、携帯端末30や医用画像診断装置20との間で通信を行う。
 本体制御部42は、CPUやMPUなどの電子回路、ASICやFPGAなどの集積回路であり、外部表示装置40内の各処理部全体を制御する。表示部43は、モニタであり、第2の実施形態においては、携帯端末30の表示部34よりも大画面であることを想定する。もっとも、実施形態はこれに限られるものではない。記憶部44は、ハードディスク、半導体メモリなどであり、外部表示装置40における各種情報を記憶する。入力部45は、リモコン、マウス、キーボード、トラックボールなどであり、外部表示装置40に対する操作を操作者から受け付ける。
 動画処理部46は、医用画像診断装置20によって配信された動画データを受信し、受信した動画データをリアルタイムに再生する。また、動画処理部46は、再生される動画データに対する編集操作を受け付け、受け付けた編集操作の内容を、動画データに反映する。この編集操作は、医用画像診断装置20にて撮影されている動画データとは独立に行うことができる。なお、動画処理部46は、携帯端末30から編集操作を受け付けることも可能である。
 図8及び図9は、第2の実施形態における処理手順の一例を示すシーケンス図である。なお、図8は、主に装置間接続時の処理手順を示し、図9は、主にコンテンツ配信時の処理手順を示す。実際の動作としては、まず、装置間接続した後にコンテンツを配信するため、これらの処理手順は、連続して実行されることが一般的である。
 (A)は、携帯端末30が接続するまでの処理手順である。図8に示すように、医用画像診断装置20を操作する操作者(図8において『院内ユーザ』)が、医用画像診断装置20に対して、院外ユーザを接続させることを要求する「院外ユーザ接続要求」を入力する(ステップS101)。例えば、操作者は、該当する院外ユーザのメールアドレスとともに「院外ユーザ接続要求」を入力する。
 すると、医用画像診断装置20は、「院外ユーザ接続要求」を、該当する院外ユーザが利用する携帯端末30に送信する(ステップS102)。例えば、医用画像診断装置20は、院内ユーザから入力されたメールアドレス宛に「院外ユーザ接続要求」をメール送信する。
 すると、携帯端末30が、携帯端末30の利用者に対して「院外ユーザ接続要求」を受信したことを通知し(ステップS103)、院外ユーザは、携帯端末30に対してログイン操作を行い(ステップS104)、医用画像診断装置20との間でユーザ認証を行う(ステップS105~106)。例えば、院外ユーザは、「院外ユーザ接続要求」のメールを受信すると、このメールを開封し、メールに記載されたURLにアクセスするなどして、医用画像診断装置20に「ユーザ認証要求」(例えば、ID及びパスワード)を送信する。医用画像診断装置20は、ユーザの認証に成功すると、その承認結果を携帯端末30に送信する。
 (B)は、関連コンテンツを携帯端末へ配信するまでの処理手順である。図8に示すように、医用画像診断装置20は、画像処理装置10に対して装置識別子を要求し(ステップS107)、返答を受け取る(ステップS108)。そして、医用画像診断装置20は、携帯端末30に対して、画像処理装置10の装置識別子を送信する(ステップS109)。
 携帯端末30は、受信した装置識別子を指定することで、画像処理装置10に接続する(ステップS110)。例えば、携帯端末30は、装置識別子とURLとを予め対応付けて記憶し、受信した装置識別子に対応付けて記憶されているURLを指定してアクセスするなどして、画像処理装置10に接続する。
 画像処理装置10は、携帯端末30からの接続を受け付けると、携帯端末30との間でセッションを起動し、アプリケーションを起動して、関連コンテンツ(例えば、画像データ、解析結果)を読み込む(ステップS111)。なお、図8には図示されていないが、例えば、画像処理装置10は、予め、医用画像診断装置10から、関連コンテンツを特定するための情報を受け取り、この情報に基づいて、関連コンテンツを特定すればよい。例えば、画像処理装置10は、予め、医用画像診断装置10から、検査IDや患者IDなどの情報や、治療部位の情報などを受け取り、これらの情報に基づいて、同じ患者の過去の画像データや解析結果を検索する。そして、画像処理装置10は、検索した画像データや解析結果を関連コンテンツとして読み込む。
 そして、画像処理装置10は、関連コンテンツを携帯端末30に配信し(ステップS112)、携帯端末30は、配信された関連コンテンツを表示部34に表示する(ステップS113)。なお、関連コンテンツは、静止画データ、動画データ、患者情報、電子カルテ、検査レポートなどである。
 (C)は、リアルタイム動画を外部表示装置へ配信するまでの処理手順である。図8に示すように、携帯端末30は、配信先を変更することを要求する「配信先変更要求」を、医用画像診断装置20に対して送信する(ステップS114)。医用画像診断装置20は、これに応答する(ステップS115)。
 続いて、携帯端末30は、装置識別子を外部表示装置40に対して要求し(ステップS116)、その返答を受け取る(ステップS117)。そして、携帯端末30は、変更先の外部表示装置40を識別する装置識別子を医用画像診断装置20に対して送信する(ステップS118)。ここで、医用画像診断装置20が、外部表示装置40にアクセスするための情報を把握していない場合には、携帯端末30は、例えばステップS118にて装置識別子を送信する際に、外部表示装置40にアクセスするための情報を送信すればよい。
 次に、医用画像診断装置20は、携帯端末30から通知された外部表示装置40に接続し(ステップS119)、リアルタイムの動画配信を開始する(ステップS120)。すると、外部表示装置40は、医用画像診断装置20から配信された動画データを表示部43上で再生する(ステップS121)。
 図9の(A)は、表示位置を同期するための処理手順である。図9に示すように、医用画像診断装置20は、動画データを解析することで、治療対象の冠動脈を抽出する(ステップS201)。次に、医用画像診断装置20は、冠動脈を示す冠動脈IDやCアームの角度などの位置情報を、画像処理装置10に対して通知する(ステップS202)。なお、医用画像診断装置20は、関連コンテンツを特定するために必要なその他の情報を併せて通知してもよい。
 すると、画像処理装置10は、医用画像診断装置20から通知された情報を用いて、自装置や他装置に蓄積された過去の画像データから、指定された冠動脈の解析結果を検索する(ステップS203)。この場合、画像処理装置10は、携帯端末30に配信する解析結果に描出される対象物と、外部表示装置40に配信される動画データに描出される対象物との位置関係が同期するように、医用画像診断装置20から送信されたCアームの角度に基づいて、解析結果に描出される冠動脈の角度などを調整する。
 そして、画像処理装置10は、解析結果を携帯端末30に対して配信する(ステップS204)。すると、携帯端末30は、これを表示部34に表示する(ステップS205)。一方、医用画像診断装置20は、外部表示装置40に対してリアルタイムに動画配信を行い(ステップS206)、外部表示装置40は、これを表示部43に表示する(ステップS207)。こうして、携帯端末30に配信する解析結果に描出される対象物と、外部表示装置40に配信される動画データに描出される対象物との位置関係が同期する。
 (B)は、表示タイミングを同期するための処理手順である。図9に示すように、医用画像診断装置20は、被検体からECGを取得する(ステップS208)。次に、医用画像診断装置20は、ECGなどの時相情報を、画像処理装置10に対して通知する(ステップS209)。なお、医用画像診断装置20は、関連コンテンツを特定するために必要なその他の情報を併せて通知してもよい。
 すると、画像処理装置10は、医用画像診断装置20から通知された情報を用いて、自装置や他装置に蓄積された過去の画像データから、解析結果の動画データを検索する(ステップS210)。この場合、画像処理装置10は、携帯端末30に配信する解析結果の動画データに描出される対象物と、外部表示装置40に配信される動画データに描出される対象物との時相関係が同期するように、すなわち、医用画像診断装置20から送信されたECGと一致するように解析結果の動画データに描出される対象物の表示タイミングを調整する。
 そして、画像処理装置10は、ECGと一致する表示タイミングとなった解析動画データを携帯端末30に対して配信する(ステップS211)。すると、携帯端末30は、これを表示部34に表示する(ステップS212)。一方、医用画像診断装置20は、外部表示装置40に対してリアルタイムに動画配信を行い(ステップS213)、外部表示装置40は、これを表示部43に表示する(ステップS214)。こうして、携帯端末30に配信する解析結果の動画データに描出される対象物と、外部表示装置40に配信される動画データに描出される対象物との時相関係が同期する。
(第2の実施形態の変形例)
 なお、第2の実施形態は、上述した内容に限られるものではない。例えば、図7に、第2の実施形態に係る医用画像制御システムの構成例を図示したが、必ずしも全ての装置や部を備える構成が必須ではなく、一部の装置や部のみを追加した構成としてもよい。また、例えば、表示位置の同期や表示タイミングの同期は必須な構成ではない。
 また、図8及び図9に示した処理手順も、適宜変更することが可能である。例えば、図8の(A)に説明した認証の処理手順は、割愛してもよいし、他の手順に変更してもよい。例えば、院外ユーザから接続を要求する手順に変更してもよい。また、図8の(B)に説明した処理手順は、例えば、最初は携帯端末30にリアルタイムに動画を配信し、その後、携帯端末30からの要求を契機として、外部表示装置40に配信先が変更されてもよい。この場合、外部表示装置40は、携帯端末30における編集状態を引き継いだ状態で動画データの配信を受けてもよい。また、例えば、図9の(A)や(B)に説明した処理手順は、いずれか一方のみでもよく、また、位置情報や時相情報として画像処理装置10に通知される情報は、任意に変更することができる。また、関連コンテンツとリアルタイム動画の表示は、逆でもよい。すなわち、携帯端末30にリアルタイム動画が配信され、外部表示装置40に関連コンテンツが配信されてもよい。この場合には、携帯端末30は、画像処理装置10に対して、配信先の変更を要求することになる。
 また、外部表示装置40は、携帯端末30と比較して大画面でなければならないものではなく、他の携帯端末でもよい。また、第2の実施形態においては、1台の医用画像診断装置、1台の画像処理装置、1台の携帯端末、及び1台の外部表示装置を例に挙げて説明したが、実施形態はこれに限られるものではない。複数の医用画像診断装置、複数の画像処理装置、複数の携帯端末、及び複数の外部表示装置がネットワークを介して接続された状態で、これらの装置のうちの一部の装置が通信を行って、表示位置や表示タイミングを同期させた表示を行ってもよい。また、この場合、任意の装置上で編集した一時的な編集状態を、他の装置が引き継ぐことが可能である。すなわち、任意の装置で受け付けた編集情報は、ネットワークを介して他の装置に送信され、他の装置において反映されればよい。
 また、図10は、第2の実施形態の変形例を説明するための図である。図10に示すように、術場(手術室などの医療現場)を撮影した動画データも、併せてリアルタイム動画配信されてもよい。また、図10に示すように、生体情報についても、併せてリアルタイム配信されてもよい。図10に示すように、例えば、外部表示装置40は、被検体を撮影した動画データ、術場を撮影した動画データ、及び生体情報を、全てリアルタイム配信により受信し、これらを1画面内に表示することができる。
(第2の実施形態の効果)
 上述したように、第2の実施形態によれば、リアルタイムの動画配信を一方の装置で受信して表示し、これと関連するコンテンツの配信を他方の装置(例えば、携帯端末)で受信して表示することで、携帯端末の利用者は、複数の情報を閲覧しながら遠隔から医療行為を支援することが可能になる。また、画像処理装置のようなサーバを中心として、携帯端末、医用画像診断装置、外部表示装置にて表示されるコンテンツを同期させたり、編集内容や操作内容を共有することが可能になる。
(第3の実施形態)
 第3の実施形態に係る医用画像制御システムは、遠隔制御の機能制限による安全対策を講じる。具体的には、医用画像診断装置20(ローカル側)は、操作の種類に応じたリスクレベルと操作の制限内容とを対応付けたリスクテーブルを保持し、携帯端末30(リモート側)から操作を受け付けると、このリスクテーブルを参照して、携帯端末30の操作者(リモートユーザ)の操作内容を制御する。なお、第3の実施形態に係る医用画像制御システムは、第1及び第2の実施形態に係る医用画像制御システムと同様の構成を有し、第1及び第2の実施形態に係る医用画像制御システムに適用することができる。
 図11は、第3の実施形態におけるリスクテーブルを説明するための図である。なお、図11に例示する内容はあくまで一例に過ぎず、運用の形態に応じて任意に変更される。例えば、医用画像診断装置20は、記憶部23にリスクテーブルを記憶する。リスクテーブルは、例えば、図11に示すように、リスクレベルと、機能(操作)と、操作の制限内容とを対応付ける。例えば、リスクレベル『A』は、人体への危険性が極めて高いレベルであり、『B』は、人体への危険性が高いレベルであり、『C』は、人体への危険性が低いレベルである。
 例えば、リスクレベル『A』には、機能(操作)として、『撮影開始』が対応付けられている。例えば、ローカルユーザの意図しないタイミングで撮影が開始されることで、急にCアームが動作したり、急にX線の照射が開始すると、人体への危険性は極めて高いといえる。このため、リモートユーザに対してはこのような操作を制限することが望ましい。そこで、リスクテーブルには、『撮影開始』に対応付けて『操作不可』が記憶される。同様に、例えば、リスクレベル『B』には、機能(操作)として、『撮影中の画像の条件変更』が対応付けられている。リモートユーザに対しては、ローカルユーザによる承認を前提に、このような操作を可能とする。また、例えば、リスクレベル『C』には、機能(操作)として、『保存画像の操作』が対応付けられている。このような操作は危険性が低いものであるので、リモートユーザに対して特に制限する必要がない。そこで、リスクテーブルには、『保存画像の操作』に対応付けて『操作可能』が記憶される。
 このような構成の下、医用画像診断装置20の反映部22bは、携帯端末30から制御情報を受信すると、リスクテーブルを参照して制御情報によって示される操作内容のリスクレベルを特定し、特定したリスクレベルに対応付けられた制限内容に応じて、医用画像診断装置20による処理への反映を制御する。
 図12及び図13は、第3の実施形態における遠隔制御の機能制限の一例を説明するための図である。図12に示すように、例えば、医用画像診断装置20を操作するローカルユーザが、そのコンソール画面上で再生される動画データ上に、ROIを描画したとする(S1)。ROIが描画された動画データは、携帯端末30に配信される(S2)。すると、例えば、携帯端末30は、動画データに対する編集操作としてROIの編集を受け付け(S3)、受け付けた編集情報を、医用画像診断装置20に転送する(S4)。ここで、第3の実施形態に係る反映部22bは、リスクテーブルを参照し、制御情報によって示される操作内容(ROIの編集)のリスクレベルを評価し、例えばリスクレベル『B』と判断する(S5)。
 第3の実施形態において、リスクレベル『B』は、ローカルユーザによる承認を前提に操作が許可されるレベルである。そこで、反映部22bは、例えば、コンソール画面上で再生される動画データに対して、ローカルユーザによって描画されたROIと、リモートユーザによって編集されたROIとが区別できるように、異なる表示属性(例えば、異なる色や異なる形状、その組合せなど)で、ROIを表示する(S6)。例えば、図12において、反映部22bは、比較画面を表示するが、この比較画面上では、ローカルユーザによって描画されたROIが点線の楕円で示され、リモートユーザによって編集されたROIが実線の四角で示されている。ローカル側での承認の際、それぞれを区別して比較することが可能である。
 そこで、ローカルユーザは、この比較画面を閲覧し、リモートユーザによるROIの編集を承認するか否かを判断し、その判断結果を、医用画像診断装置20に入力する。すると、例えば、反映部22bは、ローカルユーザによる承認の有無に応じて、最終的なROIの結果を示す結果表示画面を表示する。例えば、反映部22bは、承認された場合には、リモートユーザによって編集されたROIを採用してその後の処理を実行する。一方、反映部22bは、承認されなかった場合には、ローカルユーザによって描画されたROIを採用してその後の処理を実行する。
 また、図13に示すように、例えば、ROIの編集がリスクレベル『A』でリスクテーブルに管理されていた場合、リスクレベル『A』は、リモートユーザに対して操作を許可しないレベルである。そこで、反映部22bは、リモートユーザによる編集内容を拒絶し、リモートユーザによって編集されたROIを採用せずに、ローカルユーザによって描画されたROIを採用してその後の処理を実行する(S6)。例えば、反映部22bは、携帯端末30に対して、元の状態(すなわち、ローカルユーザによって描画されたROIが表示された状態)の画面を転送する(S7)。なお、反映部22bは、例えば、操作が受け付けられなかった旨の通知情報を転送してもよい。
 なお、第3の実施形態はこれに限られるものではない。図14は、第3の実施形態における遠隔制御の機能制限の変形例を説明するための図である。例えば、医用画像診断装置20の配信部22aは、動画データを携帯端末30に配信する際に、リスクテーブルを参照し、携帯端末30にて操作を受け付けるための操作画面として、制限内容に基づき操作内容が制限された操作画面を配信してもよい。
 例えば、図14においては、医用画像診断装置20のコンソール画面や携帯端末30の表示部34上に、操作を受け付けるための操作画面が表示され、操作画面には、機能別の操作ボタンが表示されることを想定する。例えば、『機能1』は、リスクレベル『A』の操作を実行するための操作ボタンであり、『機能2』は、リスクレベル『B』の操作を実行するための操作ボタンであり、『機能3』は、リスクレベル『C』の操作を実行するための操作ボタンであるとする。
 例えば、ローカル側では全ての操作が許可されているので、医用画像診断装置20は、コンソール画面に、『機能1』、『機能2』、及び『機能3』の全ての操作ボタンを表示する。しかしながら、配信部22aは、動画データを携帯端末30に配信する際に、リスクテーブルを参照し、携帯端末30側の操作画面上に表示される各機能のリスクレベルを評価する(S1)。そして、配信部22aは、リスクレベル『A』に対応する機能の操作ボタンについては、携帯端末30側で非表示(若しくは操作不可の状態)となるように変更した操作画面を、携帯端末30に配信する。例えば、図14において、携帯端末30に表示される操作画面では、『機能1』の操作ボタンは表示されず、『機能2』及び『機能3』の操作ボタンが表示される。このため、リモートユーザは、リスクレベル『B』又は『C』の機能を操作して、編集結果を転送することになる(S3)。
 なお、医用画像診断装置20は、ローカルユーザ及びリモートユーザによる操作の履歴や、実際にどちらの操作が適用されたか、どのローカルユーザが承認したかなどを示す履歴を記憶してもよい。この場合、医用画像診断装置20は、例えば、ローカルユーザによる操作と、リモートユーザによる操作とを比較して、その差分を評価してもよい。また、医用画像診断装置20は、処理の巻き戻しの操作を受け付けて、過去の状態を再現してもよい。例えば、ローカルユーザがその場を離れた間に、リモートユーザによる操作(例えば、リスクレベル『C』の操作)が行われた場合に、ローカルユーザは、医用画像診断装置20に蓄積された履歴を閲覧し、例えば、ローカルユーザ自身が行った操作で最新の操作の状態まで処理の状態を巻き戻すよう、指定することができる。医用画像診断装置20は、履歴の指定を受け付けると、指定された履歴の状態を再現する。
 なお、第3の実施形態においては、医用画像診断装置20がリスクテーブルを保持し、リモートユーザの操作内容を制限する例を説明したが、実施形態はこれに限られるものではない。例えば、医用画像診断装置20とは異なる装置が、医用画像診断装置20と携帯端末30との間の通信に介在し、保持するリスクテーブルに基づきリモートユーザの操作内容を制限する構成などでもよい。
(その他の実施形態)
 実施形態に係る医用画像制御システム及び携帯端末は、上記実施形態に限られるものではない。
 上記実施形態においては、医用画像診断装置20としてX線診断装置やX線CT装置を例に挙げて説明したが、実施形態はこれに限られるものではない。医用画像診断装置20は、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT-CT装置、PET-CT装置などでもよい。また、医用画像診断装置20は、ガンマナイフ(Gamma Knife)やサイバーナイフ(Cyber Knife)などの放射線治療装置に置き換えられてもよい。また、医用画像診断装置20は、上記実施形態において説明した機能が、医用画像診断装置から独立した別の装置に備えられる構成でもよい。例えば、この別の装置は、撮影部などの処理部を備えずに、リアルタイム動画配信の機能や、時間同期、位置同期の機能などを備えればよい。
 また、上記実施形態においては、画像処理装置10として、画像処理のためのアプリケーションなどを搭載したワークステーション(WS(workstation))を例に挙げて説明したが、実施形態はこれに限られるものではない。画像処理装置10は、PACS(Picture Archiving and Communication System)が導入されている場合の画像保管装置や、放射線治療計画装置などに置き換えられてもよい。
 また、上記実施形態においては、外部表示装置40として、TV装置やPCなどを例に挙げて説明したが、実施形態はこれに限られるものではない。例えば、外部表示装置40は、関連コンテンツを表示する携帯端末30とは別の携帯端末に置き換えられてもよい。
 また、医用画像診断装置20の設置場所や携帯端末30の利用場所は、院内に限定されるものではなく、例えば、救急車の中や災害現場などの屋外でもよい。医用画像診断装置20と携帯端末30とが直接又は間接に通信可能な環境であればよい。また、画像処理装置10や外部表示装置40とも直接又は間接に通信可能な環境であれば、第2の実施形態についても同様に実現することが可能である。
 また、上記実施形態においては、リアルタイムに配信する動画データとして、医用画像診断装置20にて収集、生成された動画データを例に挙げて説明したが、実施形態はこれに限られるものではない。リアルタイムに配信する動画データは、例えば、Angio室、手術室、救急車内などを動画撮影した動画データに置き換えられてもよい。この場合、この動画データをリアルタイムに配信する装置と携帯端末30とが直接又は間接に通信可能な環境であればよい。また、上記実施形態においては、携帯端末30における動画データの再生を例に挙げて説明したが、実施形態はこれに限られるものではない。例えば、静止画データ、電子カルテ、検査レポート、患者情報などが携帯端末30において表示されてもよい。例えば、外部表示装置40にはリアルタイムの動画データが表示され、携帯端末30には、この動画データに描出される患者の患者情報などが表示されてもよい。
 また、上記実施形態においては、医用画像診断装置20と携帯端末30とがネットワーク50を介して間接的に接続する例を説明したが、実施形態はこれに限られるものではない。医用画像診断装置20と携帯端末30とは直接接続されてもよい。
(その他)
 なお、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、上述の実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
 以上述べた少なくとも一つの実施形態の医用画像制御システム及び携帯端末によれば、携帯端末によって医療行為を支援することが可能になる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (14)

  1.  医用画像診断装置は、
     所定の撮影条件に従って被検体を動画撮影し、動画データを収集する収集部と、
     前記動画データを携帯端末に即時に配信する配信部と、
     前記携帯端末から送信された制御情報を受信し、受信した制御情報を前記医用画像診断装置による処理に反映する反映部と
     を備え、
     前記携帯端末は、
     前記配信部によって配信された動画データを受信し、受信した動画データを即時に再生する再生部と、
     前記医用画像診断装置に関する操作を受け付け、受け付けた操作内容を示す制御情報を前記医用画像診断装置に送信する制御情報送信部と
    を備える、医用画像制御システム。
  2.  前記反映部は、前記制御情報として撮影条件の設定情報を受信し、受信した設定情報を前記収集部によって行われる動画撮影の撮影条件に反映し、
     前記制御情報送信部は、前記撮影条件に関する操作を受け付け、受け付けた撮影条件の設定情報を前記医用画像診断装置に送信する、請求項1に記載の医用画像制御システム。
  3.  前記反映部は、前記制御情報として前記動画データに対する編集情報を受信し、受信した編集情報を前記医用画像診断装置にて再生される動画データに反映し、
     前記制御情報送信部は、前記動画データに対する編集操作を受け付け、受け付けた編集操作の内容を示す編集情報を前記医用画像診断装置に送信する、請求項1に記載の医用画像制御システム。
  4.  前記携帯端末は、
     前記再生部によって再生される動画データに対する編集操作を受け付け、受け付けた編集操作の内容を、前記再生部によって再生される動画データに反映する動画データ編集部を更に備える、請求項1に記載の医用画像制御システム。
  5.  前記医用画像診断装置は、
     前記操作の種類に応じたリスクレベルと操作の制限内容とを対応付けたリスクテーブルを記憶するリスクテーブル記憶部を備え、
     前記反映部は、前記携帯端末から前記制御情報を受信すると、前記リスクテーブルを参照して前記制御情報によって示される操作内容のリスクレベルを特定し、特定したリスクレベルに対応付けられた制限内容に応じて、前記医用画像診断装置による処理への反映を制御する、請求項1に記載の医用画像制御システム。
  6.  前記医用画像診断装置は、
     前記操作の種類に応じたリスクレベルと操作の制限内容とを対応付けたリスクテーブルを記憶するリスクテーブル記憶部を備え、
     前記配信部は、前記動画データを前記携帯端末に配信する際に、前記リスクテーブルを参照し、前記携帯端末にて前記操作を受け付けるための操作画面として、前記制限内容に基づき操作内容が制限された操作画面を配信する、請求項1に記載の医用画像制御システム。
  7.  医用画像診断装置において被検体が動画撮影されることで収集され、即時に配信された動画データを受信し、受信した動画データを即時に再生する再生部を備える、携帯端末。
  8.  医用画像診断装置は、
     所定の撮影条件に従って被検体を動画撮影し、動画データを収集する収集部と、
     前記動画データを、携帯端末の利用者に用いられる表示装置に即時に配信する配信部と、
     前記動画データに関連する関連画像データを特定する情報を、関連画像データ群を管理する管理装置に通知する通知部と
     を備え、
     前記管理装置は、
     前記通知部によって通知された情報に基づいて、前記関連画像データを前記携帯端末に配信する配信部を備え、
     前記携帯端末は、
     前記管理装置の配信部によって配信された関連動画データを受信し、受信した関連動画データを即時に再生する再生部を備え、
     前記表示装置は、
     前記医用画像診断装置の配信部によって配信された動画データを受信し、受信した動画データを即時に再生する再生部を備える、医用画像制御システム。
  9.  前記医用画像診断装置の通知部は、前記医用画像診断装置の撮影方向に関する情報を通知し、
     前記管理装置の配信部は、前記関連画像データとして、3次元画像及び前記撮影方向に関する情報に基づいて生成した画像データを配信する、請求項8に記載の医用画像制御システム。
  10.  前記医用画像診断装置の配信部は、配信先として前記表示装置を指定する要求を該携帯端末から受け付けた場合に、前記動画データを該表示装置に即時に配信する、請求項9に記載の医用画像制御システム。
  11.  前記医用画像診断装置の通知部は、前記動画データに関連する関連動画データを特定する情報とともに、該動画データに描出される対象物の位置情報を通知し、
     前記管理装置の配信部は、前記携帯端末に配信する関連動画データに描出される対象物と、前記表示装置に配信される動画データに描出される対象物との位置関係が同期するように、前記位置情報に基づいて該関連動画データの配信を制御する、請求項9に記載の医用画像制御システム。
  12.  前記医用画像診断装置の通知部は、前記動画データに関連する関連動画データを特定する情報とともに、該動画データに描出される対象物の時相情報を通知し、
     前記管理装置の配信部は、前記携帯端末に配信する関連動画データに描出される対象物と、前記表示装置に配信される動画データに描出される対象物との時相関係が同期するように、前記時相情報に基づいて該関連動画データの配信を制御する、請求項9に記載の医用画像制御システム。
  13.  前記表示装置は、
     前記再生部によって再生される動画データに対する編集操作を受け付け、受け付けた編集操作の内容を、前記再生部によって再生される動画データに反映する動画データ編集部を更に備える、請求項9に記載の医用画像制御システム。
  14.  前記動画データ編集部は、前記携帯端末から前記編集操作を受け付ける、請求項13に記載の医用画像制御システム。
PCT/JP2012/068473 2011-07-22 2012-07-20 医用画像制御システム及び携帯端末 WO2013015221A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280033259.5A CN103648387B (zh) 2011-07-22 2012-07-20 医用图像控制系统以及便携终端
US14/161,471 US9532756B2 (en) 2011-07-22 2014-01-22 Medical image control system and mobile terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-161225 2011-07-22
JP2011161225 2011-07-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/161,471 Continuation US9532756B2 (en) 2011-07-22 2014-01-22 Medical image control system and mobile terminal

Publications (1)

Publication Number Publication Date
WO2013015221A1 true WO2013015221A1 (ja) 2013-01-31

Family

ID=47601068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/068473 WO2013015221A1 (ja) 2011-07-22 2012-07-20 医用画像制御システム及び携帯端末

Country Status (4)

Country Link
US (1) US9532756B2 (ja)
JP (2) JP6071297B2 (ja)
CN (1) CN103648387B (ja)
WO (1) WO2013015221A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099999A (ja) * 2013-11-18 2015-05-28 東京エレクトロン株式会社 情報処理装置、情報処理方法、および情報処理システム
JP2020089409A (ja) * 2018-12-03 2020-06-11 株式会社ニデック 検眼システム、検眼プログラム、及び検眼装置

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013033954A1 (zh) 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 陀螺式动态自平衡云台
JP2014042654A (ja) * 2012-08-27 2014-03-13 Fujifilm Corp サーバー装置、クライアント装置、医療画像処理システム、医療画像処理方法、及びプログラム
JP6366898B2 (ja) * 2013-04-18 2018-08-01 キヤノンメディカルシステムズ株式会社 医用装置
JP6176832B2 (ja) * 2013-04-18 2017-08-09 東芝メディカルシステムズ株式会社 支持器及びx線診断装置
JP6448176B2 (ja) * 2013-06-12 2019-01-09 株式会社構造計画研究所 医療画像共有システム、医療画像共有方法、及び医療画像共有プログラム
US8903568B1 (en) 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
DE102013217642B4 (de) * 2013-09-04 2018-08-23 Siemens Healthcare Gmbh Mobile Informations- und Steuervorrichtung sowie deren Verwendung durch medizinisches Personal
JP2015085182A (ja) * 2013-09-26 2015-05-07 株式会社東芝 医用画像診断装置、医用画像表示装置、および医用画像表示方法
CN104903790B (zh) 2013-10-08 2018-07-24 深圳市大疆灵眸科技有限公司 用于增稳和减振的装置和方法
CN108495052A (zh) * 2013-10-11 2018-09-04 奥林巴斯株式会社 摄像装置、摄像系统和摄像方法
JP6254111B2 (ja) * 2014-07-31 2017-12-27 富士フイルム株式会社 放射線画像撮影システム、放射線画像撮影装置、携帯情報端末装置、及び放射線画像の撮影方法
DE102014216669A1 (de) * 2014-08-21 2016-02-25 Siemens Aktiengesellschaft Magnetresonanztomographiesystem
US11347762B2 (en) 2015-03-23 2022-05-31 Dropbox, Inc. Intelligent scrolling in shared folder back integrated workspaces
KR102611663B1 (ko) * 2015-06-09 2023-12-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 의료 컨텍스트에서의 비디오 컨텐트 검색
CN108135555B (zh) * 2015-10-06 2021-09-14 苏尔吉维索公司 用于控制机动c形臂的运动的方法和设备
US10108688B2 (en) 2015-12-22 2018-10-23 Dropbox, Inc. Managing content across discrete systems
US10296713B2 (en) * 2015-12-29 2019-05-21 Tomtec Imaging Systems Gmbh Method and system for reviewing medical study data
US11426136B2 (en) 2015-12-24 2022-08-30 Canon Medical Systems Corporation X-ray diagnostic system and medical image diagnostic system
JP6906945B2 (ja) * 2015-12-24 2021-07-21 キヤノンメディカルシステムズ株式会社 X線診断システム
JP7002842B2 (ja) * 2015-12-24 2022-01-20 キヤノンメディカルシステムズ株式会社 X線診断装置および医用画像診断システム
US10257174B2 (en) * 2016-01-20 2019-04-09 Medicom Technologies, Inc. Methods and systems for providing secure and auditable transfer of encrypted data between remote locations
JP2017184875A (ja) * 2016-04-01 2017-10-12 キヤノン株式会社 放射線撮影システム、情報端末、放射線撮影装置、放射線撮影方法、及びプログラム
JP6644646B2 (ja) * 2016-06-14 2020-02-12 株式会社ジェイマックシステム リクエスト処理装置、リクエスト処理方法およびリクエスト処理プログラム
KR20180020594A (ko) * 2016-08-19 2018-02-28 주식회사 현대아이티 생체정보 연동형 스마트보드 시스템 및 그 방법
US10719807B2 (en) 2016-12-29 2020-07-21 Dropbox, Inc. Managing projects using references
US10970656B2 (en) 2016-12-29 2021-04-06 Dropbox, Inc. Automatically suggesting project affiliations
US10402786B2 (en) 2016-12-30 2019-09-03 Dropbox, Inc. Managing projects in a content management system
EP3428925B1 (en) * 2017-07-12 2022-06-29 Siemens Healthcare GmbH Method and system for clinical decision support with local and remote analytics
JP6969255B2 (ja) * 2017-09-22 2021-11-24 富士フイルムビジネスイノベーション株式会社 通話制御装置、通話接続システムおよびプログラム
US11226939B2 (en) 2017-12-29 2022-01-18 Dropbox, Inc. Synchronizing changes within a collaborative content management system
JP6611833B2 (ja) * 2018-01-16 2019-11-27 キヤノン株式会社 放射線撮影システム、並びに、カメラ制御装置及びその制御方法
US11657087B2 (en) 2018-03-19 2023-05-23 Verily Life Sciences Llc Surgical video retrieval based on preoperative images
US11017116B2 (en) * 2018-03-30 2021-05-25 Onsite Health Diagnostics, Llc Secure integration of diagnostic device data into a web-based interface
US10754827B2 (en) 2018-11-06 2020-08-25 Dropbox, Inc. Technologies for integrating cloud content items across platforms
WO2020105248A1 (ja) * 2018-11-22 2020-05-28 富士フイルム株式会社 医用画像表示制御装置、方法及びプログラム
CN109935306A (zh) * 2019-03-08 2019-06-25 菅吉华 一种医学影像管理系统
WO2020212762A2 (en) 2019-04-16 2020-10-22 International Medical Solutions, Inc. Methods and systems for syncing medical images across one or more networks and devices
JP7483333B2 (ja) * 2019-07-03 2024-05-15 キヤノンメディカルシステムズ株式会社 医用情報処理システム、端末装置及びプログラム
JP2021078824A (ja) * 2019-11-20 2021-05-27 キヤノンメディカルシステムズ株式会社 X線診断装置
US11538578B1 (en) 2021-09-23 2022-12-27 International Medical Solutions, Inc. Methods and systems for the efficient acquisition, conversion, and display of pathology images
CN115171358B (zh) * 2022-09-06 2022-11-29 湖南警察学院 一种根据人员状态信息调度的物联网报警系统
CN117153347B (zh) * 2023-10-30 2023-12-26 四川桃子健康科技股份有限公司 基于大数据分析的医学影像处理系统、方法及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003310592A (ja) * 2002-04-22 2003-11-05 Toshiba Corp 遠隔x線撮像方法、遠隔x線撮像システム、医用画像診断装置のシミュレーション方法、情報処理サービス方法、及びモダリティシミュレータシステム
JP2004041605A (ja) * 2002-07-16 2004-02-12 Toshiba Corp 検査/処置情報記録システム、情報処理装置、情報端末、及び情報記録媒体
JP2004081264A (ja) * 2002-08-23 2004-03-18 Hitachi Medical Corp 遠隔医療システム及び制御モダリティーの遠隔操作装置
JP2004097783A (ja) * 2002-07-17 2004-04-02 Shimadzu Corp 遠隔画像分析装置
JP2006043298A (ja) * 2004-08-06 2006-02-16 Matsushita Electric Ind Co Ltd 遠隔診断システム
JP2008217294A (ja) * 2007-03-02 2008-09-18 Takeshi Shiina 携帯端末を利用した医療用通信装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369812B1 (en) * 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
JP4261785B2 (ja) 2001-09-21 2009-04-30 ソフトバンクモバイル株式会社 携帯情報端末及び医療用診断システム
US9818136B1 (en) * 2003-02-05 2017-11-14 Steven M. Hoffberg System and method for determining contingent relevance
JP4371722B2 (ja) 2003-07-15 2009-11-25 株式会社東芝 医用情報参照システム及び医用情報参照方法
WO2005030045A1 (en) * 2003-09-26 2005-04-07 Koninklijke Philips Electronics, N.V. Enablement of quick remote access to ct scans to improve workflow and patient throughput
JP4615842B2 (ja) * 2003-10-09 2011-01-19 オリンパス株式会社 内視鏡システムおよび内視鏡画像処理装置
JP2006198241A (ja) 2005-01-21 2006-08-03 Olympus Corp 医療機器制御装置
JP2007097744A (ja) * 2005-10-03 2007-04-19 Toshiba Corp 医用システム及び医用コンピュータ装置
JP5019205B2 (ja) * 2007-01-30 2012-09-05 株式会社東芝 超音波診断装置
JP2009075927A (ja) * 2007-09-21 2009-04-09 Fujifilm Corp 医用レポート作成システム及び医用レポート作成装置並びに医用レポート作成方法
US8488013B2 (en) * 2008-01-30 2013-07-16 Siemens Medical Solutions Usa, Inc. System for remote control of a medical imaging system
JP5599572B2 (ja) * 2009-03-12 2014-10-01 富士フイルム株式会社 症例画像検索装置、方法およびプログラム
CN101646006A (zh) * 2009-09-11 2010-02-10 北京中星微电子有限公司 一种图像合并装置及包含该装置的便携终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003310592A (ja) * 2002-04-22 2003-11-05 Toshiba Corp 遠隔x線撮像方法、遠隔x線撮像システム、医用画像診断装置のシミュレーション方法、情報処理サービス方法、及びモダリティシミュレータシステム
JP2004041605A (ja) * 2002-07-16 2004-02-12 Toshiba Corp 検査/処置情報記録システム、情報処理装置、情報端末、及び情報記録媒体
JP2004097783A (ja) * 2002-07-17 2004-04-02 Shimadzu Corp 遠隔画像分析装置
JP2004081264A (ja) * 2002-08-23 2004-03-18 Hitachi Medical Corp 遠隔医療システム及び制御モダリティーの遠隔操作装置
JP2006043298A (ja) * 2004-08-06 2006-02-16 Matsushita Electric Ind Co Ltd 遠隔診断システム
JP2008217294A (ja) * 2007-03-02 2008-09-18 Takeshi Shiina 携帯端末を利用した医療用通信装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099999A (ja) * 2013-11-18 2015-05-28 東京エレクトロン株式会社 情報処理装置、情報処理方法、および情報処理システム
JP2020089409A (ja) * 2018-12-03 2020-06-11 株式会社ニデック 検眼システム、検眼プログラム、及び検眼装置
JP7345716B2 (ja) 2018-12-03 2023-09-19 株式会社ニデック 検眼システム、検眼プログラム、及び検眼装置

Also Published As

Publication number Publication date
JP2013047940A (ja) 2013-03-07
CN103648387B (zh) 2017-02-08
US20140133632A1 (en) 2014-05-15
US9532756B2 (en) 2017-01-03
JP6071297B2 (ja) 2017-02-01
CN103648387A (zh) 2014-03-19
JP2016187568A (ja) 2016-11-04

Similar Documents

Publication Publication Date Title
JP6071297B2 (ja) 医用画像制御システム
JP5525675B2 (ja) 医用画像診断支援装置、医用画像診断装置、又は医用画像診断支援システム
US20060259193A1 (en) Telerobotic system with a dual application screen presentation
US10483007B2 (en) Modular telehealth cart with thermal imaging and touch screen user interface
KR101559056B1 (ko) 메신저 기반의 의료 영상 공유를 통한 원격 협진 방법 및 그 시스템
JP2009230304A (ja) 医用レポート作成支援システム、プログラム及び方法
KR20130053587A (ko) 의료기기 및 이를 이용한 의료영상 디스플레이 방법
JP5684761B2 (ja) 医療支援装置及び医療支援方法
JP5899856B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN111312384A (zh) 控制医疗设备的用户设备、方法和系统
US20160179355A1 (en) System and method for managing image scan parameters in medical imaging
KR101513412B1 (ko) 서버 기반의 의료 영상 공유를 통한 원격 협진 방법 및 그 시스템
CN207039767U (zh) 一种医用家属谈话系统
KR101678106B1 (ko) 스마트폰을 이용한 태아 정보 제공 시스템
CN111312385A (zh) 控制医疗设备的处理装置、方法和系统
JP6003595B2 (ja) 医用画像システム
JP2012247905A (ja) 医用情報処理システム
JP2012035062A (ja) 医用画像装置及び医用画像保管装置
KR101837848B1 (ko) 긴급 의료영상 판독 알림 방법
KR20130088730A (ko) 의료영상 저장 전송 시스템의 정보 공유, 관리 장치 및 방법
JP5662394B2 (ja) 医療支援装置及び医療支援方法
JP2014042654A (ja) サーバー装置、クライアント装置、医療画像処理システム、医療画像処理方法、及びプログラム
US20230300448A1 (en) Telehealth communications
JP5656530B2 (ja) 医用画像処理クライアント装置
CN111326249A (zh) 控制医疗设备的处理装置、用户设备和系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12817571

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12817571

Country of ref document: EP

Kind code of ref document: A1