WO2017187496A1 - 救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム - Google Patents

救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム Download PDF

Info

Publication number
WO2017187496A1
WO2017187496A1 PCT/JP2016/062979 JP2016062979W WO2017187496A1 WO 2017187496 A1 WO2017187496 A1 WO 2017187496A1 JP 2016062979 W JP2016062979 W JP 2016062979W WO 2017187496 A1 WO2017187496 A1 WO 2017187496A1
Authority
WO
WIPO (PCT)
Prior art keywords
emergency
captured image
image sharing
captured
work
Prior art date
Application number
PCT/JP2016/062979
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to PCT/JP2016/062979 priority Critical patent/WO2017187496A1/ja
Publication of WO2017187496A1 publication Critical patent/WO2017187496A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation

Definitions

  • the present invention relates to an emergency captured image in which a captured image captured by a wearable terminal attached to an emergency crew and work information regarding work performed by the emergency crew are shared with an operator terminal in a hospital connected via a network.
  • the present invention relates to a sharing system, an emergency captured image sharing method, and an emergency captured image sharing program.
  • Patent Document 1 it is possible to quickly determine a medical facility that is suitable for a patient's condition and that can accept a patient, and to share information among doctors of a plurality of medical facilities.
  • An emergency system has been proposed.
  • An object of the present invention is to provide an emergency captured image sharing system, an emergency captured image sharing method, and an emergency captured image sharing program shared with an operator terminal.
  • the present invention provides the following solutions.
  • the invention according to the first feature is An emergency captured image sharing system for sharing a captured image captured by a wearable terminal attached to an emergency crew with an operator terminal in a hospital connected via a network,
  • an emergency captured image sharing system comprising: work information display means for displaying work information related to work performed by the emergency personnel on the shared captured image.
  • an emergency captured image sharing system for sharing a captured image captured by a wearable terminal attached to an emergency crew with an operator terminal in a hospital connected via a network
  • Work information display means for displaying work information relating to work performed by the emergency personnel on the shared captured image.
  • the invention according to the first feature is a category of the emergency captured image sharing system, but the emergency captured image sharing method and the emergency captured image sharing program have the same operations and effects.
  • the invention according to the second feature is an emergency captured image sharing system which is the invention according to the first feature, An emergency captured image sharing system is provided, wherein the work information is acquired from an emergency device provided in an ambulance.
  • the emergency captured image sharing system obtains the work information from an emergency device provided in an ambulance.
  • the invention according to the third feature is an emergency captured image sharing system which is the invention according to the first or second feature,
  • An emergency captured image sharing system comprising: instruction information display means for displaying instruction information input from the operator terminal on the shared captured image.
  • the emergency captured image sharing system displays the instruction information input from the operator terminal on the shared captured image. Instruction information display means is provided.
  • the invention according to the fourth feature is an emergency captured image sharing system which is the invention according to any one of the first to third features, There is provided an emergency captured image sharing system comprising behavior verification means for recognizing and verifying the behavior of the emergency crew displayed in the shared captured image.
  • the emergency captured image sharing system according to any one of the first to third aspects is characterized in that the action of the emergency crew displayed in the shared captured image is Action verification means for image recognition and verification is provided.
  • An invention according to a fifth feature is an emergency captured image sharing system which is an invention according to any one of the first to fourth features,
  • the wearable terminal includes a position information acquisition unit, Emergency imaging image sharing comprising: route display means for displaying, on the operator terminal, a travel route through which the emergency crew has traveled to the hospital from a history of location information acquired by the location information acquisition unit. Provide a system.
  • an emergency captured image sharing system includes the position information acquisition unit in the wearable terminal, and the position information acquisition unit includes: Route display means is provided for displaying, on the operator terminal, a travel route through which the emergency personnel have traveled to the hospital from the acquired history of position information.
  • the invention according to the sixth feature is An emergency captured image sharing method for sharing a captured image captured by a wearable terminal attached to an emergency crew with an operator terminal in a hospital connected via a network, An emergency captured image sharing method is provided, comprising: a work information display step of displaying work information related to work performed by the emergency personnel on the shared captured image.
  • the invention according to the seventh feature is To the emergency imaging image sharing system that shares the captured image captured by the wearable terminal attached to the emergency crew with the operator terminal in the hospital connected via the network, there is provided an emergency captured image sharing program for executing a work information display step for displaying work information related to work performed by the emergency personnel on the shared captured image.
  • the captured image captured by the wearable terminal attached to the emergency crew and the work information regarding the work performed by the emergency crew are shared with the operator terminal in the hospital connected via the network. It is possible to provide an emergency captured image sharing system, an emergency captured image sharing method, and an emergency captured image sharing program.
  • FIG. 1 is a schematic diagram of a preferred embodiment of the present invention.
  • FIG. 2 is a diagram illustrating the functional blocks of the wearable terminal 100 and the operator terminal 200 and the relationship between the functions.
  • FIG. 3 is a flowchart of emergency captured image sharing processing between the wearable terminal 100 and the operator terminal 200.
  • FIG. 4 is a diagram showing the functional blocks of the wearable terminal 100 and the operator terminal 200 having the instruction information display function and the relationship between the functions.
  • FIG. 5 is a flowchart of the emergency captured image sharing process of the wearable terminal 100 and the operator terminal 200 having the instruction information display function.
  • FIG. 6 is a diagram illustrating the functional blocks of the wearable terminal 100 and the operator terminal 200 having an action verification function and the relationship between the functions.
  • FIG. 1 is a schematic diagram of a preferred embodiment of the present invention.
  • FIG. 2 is a diagram illustrating the functional blocks of the wearable terminal 100 and the operator terminal 200 and the relationship between the functions.
  • FIG. 3 is a flowchart of emergency
  • FIG. 7 is a flowchart of the emergency captured image sharing process of the wearable terminal 100 and the operator terminal 200 having the behavior verification function.
  • FIG. 8 is a diagram showing the functional blocks of wearable terminal 100 and operator terminal 200 having a route display function and the relationship between the functions.
  • FIG. 9 is a flowchart of emergency captured image sharing processing between the wearable terminal 100 and the operator terminal 200 having a route display function.
  • FIG. 10 is a diagram illustrating the functional blocks of the wearable terminal 100, the operator terminal 200, and the server 400 and the relationship between the functions.
  • FIG. 11 is an example of an emergency captured image sharing screen display of the wearable terminal 100 and the operator terminal 200.
  • FIG. 12 is an example of a screen display of instruction information input from the operator terminal when the wearable terminal 100 and the operator terminal 200 share the emergency captured image.
  • FIG. 13 is an example of an action verification screen of the operator terminal 200.
  • FIG. 14 is an example of a route display screen of the operator terminal 200.
  • the wearable terminal 100 includes a camera unit 110, an input unit 120, an output unit 130, a storage unit 140, a control unit 150, and a communication unit 160.
  • the output unit 130 implements the work information display module 131 in cooperation with the control unit 150.
  • the operator terminal 200 includes an input unit 220, an output unit 230, a storage unit 240, a control unit 250, and a communication unit 260.
  • the output unit 230 implements the work information display module 231 in cooperation with the control unit 250.
  • wearable terminal 100 and operator terminal 200 are connected via communication network 300.
  • the communication network 300 may be a public communication network or a dedicated communication network. It is assumed that the ambulance crew 600 wearing the wearable terminal 100 gets on the ambulance 500 and transports it to the hospital while performing first aid for the patient 700.
  • the ambulance crew 600 starts imaging with the camera unit 110 of the wearable terminal 100 when transporting to the hospital with the ambulance 500 while performing first aid for the patient 700 (step S01). It is desirable that the timing for starting imaging is before the patient 700 is reached. This is because the condition of the patient 700 can be recorded from the timing of first contact. In the imaging here, sound may be recorded together with the moving image. By sharing the voice, the operator terminal 200 can know the situation at the site in more detail.
  • the captured image and sound are stored in the storage unit 140.
  • wearable terminal 100 shares an image with operator terminal 200 (step S02). Specifically, an image captured by the camera unit 110 of the wearable terminal 100 is displayed on the output unit 230 of the operator terminal 200.
  • the wearable terminal 100 is attached to the emergency crew member 600, and by always sharing an image shown in the field of view of the emergency crew member 600 with the operator terminal 200, the situation can be accurately communicated.
  • the work information display module 131 of the wearable terminal 100 acquires the work information of the ambulance crew 600 (step S03).
  • the work information here refers to the contents of the first-aid treatment performed by the emergency personnel 600 on the patient 700, the electrocardiogram that can confirm the condition of the patient 700, percutaneous arterial oxygen saturation, blood pressure, pulse, etc.
  • image analysis of a captured image is conceivable.
  • the contents of the treatment that can be performed by the ambulance crew 600 are determined to some extent, such as airway maintenance, artificial respiration, chest compression heart massage, defibrillation, oxygen inhalation, hemostasis treatment, wound treatment, fracture treatment, posture, and heat retention.
  • an emergency device provided in the ambulance 500 and the wearable terminal 100 may directly communicate with each other.
  • information may be acquired through the communication network 300.
  • each numerical value confirmed by the ambulance crew 600 may be acquired as information by analyzing the captured image.
  • the work information display module 131 of the wearable terminal 100 displays the work information on the output unit 130, and the work information display module 231 of the operator terminal 200 displays the work information on the output unit 230 (step S04).
  • the work information display module 131 displays “Chest compression massage 2016/4/4 20: as work information on the output unit 130 of the wearable terminal 100 at a position where it does not interfere with the patient 700 seen as an image of the field of view of the emergency personnel 600. 15 start ”,“ blood pressure 80/42 ”,“ pulse 40 ”are displayed.
  • the output unit 230 of the operator terminal 200 displays the state of the patient 700 sharing the captured image, and the work information display module 231 also displays “Chest compression massage 2016/4/4” as work information.
  • the captured image captured by the wearable terminal attached to the emergency crew and the work information regarding the work performed by the emergency crew are connected to the operator terminal in the hospital connected via the network. By sharing, appropriate medical practice can be performed.
  • FIG. 2 is a diagram illustrating the functional blocks of the wearable terminal 100 and the operator terminal 200 and the relationship between the functions.
  • the wearable terminal 100 includes a camera unit 110, an input unit 120, an output unit 130, a storage unit 140, a control unit 150, and a communication unit 160.
  • the output unit 130 implements the work information display module 131 in cooperation with the control unit 150.
  • the operator terminal 200 includes an input unit 220, an output unit 230, a storage unit 240, a control unit 250, and a communication unit 260.
  • the output unit 230 implements the work information display module 231 in cooperation with the control unit 250. It is assumed that wearable terminal 100 and operator terminal 200 are connected via communication network 300.
  • the communication network 300 may be a public communication network or a dedicated communication network.
  • the wearable terminal 100 may be a general wearable device that can perform imaging with a camera and execute various applications, and is an information device or an electrical appliance having a function to be described later.
  • the glasses-type terminal (smart glasses) illustrated as the wearable terminal 100 is only an example.
  • the wearable terminal according to the present invention is capable of hands-free imaging of the field of view of the emergency crew member 600 who is the wearer.
  • the wearable terminal 100 includes a camera in the camera unit 110.
  • the captured image is converted into digital data and stored in the storage unit 140. It is desirable that audio data can be stored together with image data.
  • the microphone function of the input unit may be used.
  • the captured image is preferably a moving image. In the case of a moving image, it is possible to cut out a part of the moving image and save it as a still image in the storage unit 140 by the operation of the control unit 150. .
  • the image obtained by imaging should be a precise image with the amount of information required by the user, and the number of pixels and image quality can be specified. The number of pixels and image quality can be specified according to the communication status. May be switched automatically.
  • the input unit 120 has functions necessary for specifying imaging and starting image sharing.
  • a liquid crystal display that realizes a touch panel function, a hardware button on the device, a microphone for performing voice recognition, and the like can be provided.
  • the function of the present invention is not particularly limited by the input method.
  • the output unit 130 implements the work information display module 131 in cooperation with the control unit 150. Further, it is assumed that a function necessary for displaying work information and instruction information is provided. As an example, a screen display on a liquid crystal display such as a head mount type or a spectacle type may be considered. Or you may enable it to perform audio
  • the function of the present invention is not particularly limited by the output method.
  • the storage unit 140 includes a data storage unit using a hard disk or a semiconductor memory.
  • the captured image, work information, and other data of the patient 700, work verification data, route data, and the like are stored as necessary.
  • the control unit 150 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the communication unit 160 includes, for example, a WiFi compatible device compliant with IEEE802.11 or a wireless device compliant with standards such as Bluetooth, NFC, 3G, and LTE, and communicates with the operator terminal 200 via the communication network 300. Is possible.
  • the operator terminal 200 may be a general information terminal, and is an information device or an electrical appliance having functions to be described later. It may be a general information home appliance such as a mobile phone, a smartphone, a tablet PC, a notebook PC, a wearable device, or a PC having a display, or other electrical appliances.
  • the desktop PC illustrated as the operator terminal 200 is just one example.
  • the input unit 220 has a function necessary for inputting a work instruction to the wearable terminal 100.
  • a liquid crystal display that realizes a touch panel function, a keyboard, a mouse, a pen tablet, a hardware button on the apparatus, a microphone for performing voice recognition, and the like can be provided.
  • the function of the present invention is not particularly limited by the input method.
  • the output unit 230 realizes the work information display module 231 in cooperation with the control unit 250. Further, it is assumed that a function necessary for sharing an emergency captured image is provided. For example, a liquid crystal display, a PC display, a screen display such as projection onto a projector, and an audio output from a speaker, headphones, earphones, or the like can be considered.
  • the function of the present invention is not particularly limited by the output method.
  • the storage unit 240 includes a data storage unit such as a hard disk or a semiconductor memory, and stores data necessary for image sharing.
  • the control unit 250 includes a CPU, RAM, ROM, and the like.
  • the communication unit 260 includes, for example, a WiFi compatible device compliant with IEEE802.11, a wireless device compliant with standards such as Bluetooth, NFC, 3G, LTE, or the like, or a communication function by wired connection. It is assumed that communication with the wearable terminal 100 is possible.
  • FIG. 3 is a flowchart of emergency captured image sharing processing between the wearable terminal 100 and the operator terminal 200.
  • Wearable terminal 100 is attached to ambulance crew member 600, and it is assumed that an image shown in the field of view of ambulance crew member 600 can be captured by camera unit 110. Further, it is assumed that the operator terminal 200 is in a hospital that transports the patient 700.
  • the camera unit 110 of the wearable terminal 100 starts imaging when the ambulance crew 600 carries the patient 700 to the hospital with the ambulance 500 while performing the first aid (step S101). It is desirable that the timing for starting imaging is before the patient 700 is reached. This is because the condition of the patient 700 can be recorded from the timing of first contact. In the imaging here, sound may be recorded together with the moving image. By sharing the voice, the operator terminal 200 can know the situation at the site in more detail.
  • the captured image and sound are stored in the storage unit 140 of the wearable terminal 100.
  • the wearable terminal 100 After the start of imaging, the wearable terminal 100 notifies the operator terminal 200 of the start of image sharing via the communication unit 160 (step S102).
  • the communication unit 160 of the wearable terminal 100 transmits shared data to the operator terminal 200 (step S103).
  • the shared data is a captured image of the wearable terminal 100.
  • the image shown in the field of view of the ambulance crew 600 and the sound heard by the emergency crew 600 are transmitted as image sharing data on the operator terminal 200.
  • the communication unit 260 of the operator terminal 200 receives the shared data from the wearable terminal 100 (step S104).
  • the received data is stored in the storage unit 240 as necessary.
  • step S105 the screen display of the output unit 230 is updated based on the received shared data. If there is no previous screen immediately after image sharing is started, screen display is simply started. When audio data is also present, audio output may be performed by the output unit 230 in combination with image display as necessary.
  • the work information display module 131 of the wearable terminal 100 acquires the work information of the emergency personnel 600 (step S106).
  • the work information here refers to the contents of the first-aid treatment performed by the emergency personnel 600 on the patient 700, the electrocardiogram that can confirm the condition of the patient 700, percutaneous arterial oxygen saturation, blood pressure, pulse, etc.
  • image analysis of a captured image is conceivable.
  • the contents of the treatment that can be performed by the ambulance crew 600 are determined to some extent, such as airway maintenance, artificial respiration, chest compression heart massage, defibrillation, oxygen inhalation, hemostasis treatment, wound treatment, fracture treatment, posture, and heat retention.
  • an emergency device provided in the ambulance 500 and the wearable terminal 100 may directly communicate with each other.
  • information may be acquired through the communication network 300.
  • each numerical value confirmed by the ambulance crew 600 may be acquired as information by analyzing the captured image.
  • the work information display module 131 of the wearable terminal 100 confirms whether the work information has been acquired (step S107).
  • the work information display module 131 displays the work information on the output unit 130. Is updated (step S108).
  • step S108 immediately after starting the acquisition of the work information, if there is no previous work information, the display of the work information is simply started. If the work information cannot be acquired because the patient 700 has not been confirmed yet or the work has not been started, the work information display update is skipped and the process proceeds to the next step S109. Proceed with In step S108, when the previous work information is compared with the current work information and there is no update, the display update may be omitted.
  • control unit 150 of the wearable terminal 100 confirms whether or not to end the image sharing (step S109). Whether to end the image sharing may be determined according to the input from the emergency personnel 600 to the wearable terminal 100, or may be determined according to the situation such as whether the patient 700 has arrived at the destination hospital. Be good.
  • step S103 If the image sharing is not terminated, the process returns to step S103 and continues.
  • the work information of the emergency crew member 600 acquired by the wearable terminal 100 is added to the shared data when the processing is continued. That is, when work information exists in addition to the captured image of the wearable terminal 100, it is transmitted to the operator terminal 200 as shared data (step S103).
  • the communication unit 260 of the operator terminal 200 receives the captured image and work information as shared data (step S104).
  • step S105 when the work information display module 231 of the operator terminal 200 updates the screen display of the output unit 230, the work information is also displayed (step S105).
  • FIG. 11 is an example of a screen display for sharing the emergency captured image of the wearable terminal 100 and the operator terminal 200.
  • the work information display module 131 of the wearable terminal 100 does not interfere with the patient 700 seen as an image of the field of the ambulance crew 600, “Chest compression massage 2016/4/4 20:15 start” “blood pressure 80/42” “Pulse 40” is displayed.
  • the output unit 230 of the operator terminal 200 displays the state of the patient 700 sharing the captured image, and the work information display module 231 also displays “Chest compression massage 2016/4/4” as work information.
  • “20:15 start”, “blood pressure 80/42”, “pulse 40” are displayed. These pieces of information are updated from time to time. Based on the information, it is possible to give an appropriate work instruction to the wearable terminal 100 from the operator terminal 200 in real time. It is possible to start treatment immediately according to the work performed.
  • wearable terminal 100 When ending image sharing, wearable terminal 100 notifies operator terminal 200 of the end of image sharing via communication unit 160 (step S110).
  • step S103 to step S109 is repeated while image sharing is being performed, but wait processing may be appropriately performed in the middle in consideration of the communication status, system load, and the like.
  • the captured image captured by the wearable terminal attached to the emergency crew and the work information regarding the work performed by the emergency crew are connected to the operator terminal in the hospital connected via the network. By sharing, appropriate medical practice can be performed.
  • FIG. 4 is a diagram showing the functional blocks of the wearable terminal 100 and the operator terminal 200 having the instruction information display function and the relationship between the functions.
  • the output unit 130 of the wearable terminal 100 cooperates with the control unit 150 to display the instruction information display module 132
  • the output unit 230 of the operator terminal 200 cooperates with the control unit 250 to display instruction information.
  • Module 232 is implemented.
  • FIG. 5 is a flowchart of the emergency captured image sharing process of the wearable terminal 100 and the operator terminal 200 having the instruction information display function. Steps S201 to S208 in FIG. 5 correspond to steps S101 to S108 in FIG. 3, and therefore, step S209 and subsequent steps will be mainly described here.
  • the instruction information display module 232 of the operator terminal 200 confirms whether or not to give a work instruction to the wearable terminal 100 (step S209).
  • the operator terminal 200 stands by in preparation for the next shared data reception (step S204).
  • the instruction information display module 232 receives an instruction input to the emergency personnel 600 from the doctor of the hospital or an operator who receives an instruction from the doctor via the input unit 220, and outputs the instruction information to the output unit 230.
  • the instruction information is the contents of emergency treatment and the like that should be performed by the emergency crew member 600 on the patient 700.
  • the instruction information display module 232 transmits the instruction information to the wearable terminal 100 via the communication unit 260 (step S211).
  • the instruction information display module 132 of the wearable terminal 100 receives the instruction information via the communication unit 160 (step S212).
  • the instruction information display module 132 updates the display of the instruction information to the output unit 130 (step S213).
  • the display of the instruction information is simply started.
  • FIG. 12 is an example of a screen display of instruction information input from the operator terminal 200 in the emergency captured image sharing of the wearable terminal 100 and the operator terminal 200.
  • An example in which the doctor inputs instruction information “please urgently inhale oxygen” using the input unit 220 of the operator terminal 200 is shown.
  • the work information display module 231 displays “Chest compression massage 2016/4/4 20: 15 start ”,“ blood pressure 80/42 ”,“ pulse 40 ”are displayed.
  • the instruction information display module 232 displays the input content “ ⁇ work instruction> 2016/4/4 20:22, urgently inhale oxygen”.
  • the instruction information display module 232 automatically obtains date and time information and displays them together with the contents of the instructions.
  • the instruction information display module 132 of the wearable terminal 100 displays “ ⁇ work instruction> 2016/4/4 20: as an instruction information in a position that does not disturb the patient 700 that appears as a visual image of the emergency personnel 600. 22 “Please urgently inhale oxygen”.
  • control unit 150 of the wearable terminal 100 confirms whether to end image sharing (step S214). Whether to end the image sharing may be determined according to the input from the emergency personnel 600 to the wearable terminal 100, or may be determined according to the situation such as whether the patient 700 has arrived at the destination hospital. Be good.
  • step S203 If the image sharing is not terminated, the process returns to step S203 and continues.
  • the work data of the emergency personnel 600 acquired by the wearable terminal 100 in step S206 is added to the shared data when processing is continued. That is, when work information exists in addition to the captured image of the wearable terminal 100, it is transmitted to the operator terminal 200 as shared data (step S203).
  • the communication unit 260 of the operator terminal 200 receives the captured image and work information as shared data (step S204).
  • step S205 when the work information display module 231 of the operator terminal 200 updates the screen display of the output unit 230, the work information is also displayed (step S205).
  • wearable terminal 100 When ending image sharing, wearable terminal 100 notifies operator terminal 200 of the end of image sharing via communication unit 160 (step S215).
  • step S203 to step S214 is repeated while image sharing is being performed, but wait processing may be appropriately performed in the middle in consideration of the communication status, system load, and the like.
  • work instructions can be given in real time from the doctors of the hospital to the emergency personnel 600, and appropriate medical practices can be performed on the patient 700.
  • FIG. 6 is a diagram illustrating the functional blocks of the wearable terminal 100 and the operator terminal 200 having an action verification function and the relationship between the functions.
  • the storage unit 240 of the operator terminal 200 implements the behavior verification module 241 in cooperation with the control unit 250.
  • FIG. 7 is a flowchart of the emergency captured image sharing process of the wearable terminal 100 and the operator terminal 200 having an action verification function. Steps S301 and S302 in FIG. 7 correspond to steps S101 and S102 in FIG. 3, and therefore, step S303 and subsequent steps will be mainly described here.
  • the behavior verification module 241 of the operator terminal 200 starts recording shared data (step S303).
  • the shared data here is a captured image and work information received in a subsequent step. Further, in the case of a configuration having the above-described instruction information display function, the instruction information is also included in the shared data and recorded together.
  • the communication unit 160 of the wearable terminal 100 transmits shared data to the operator terminal 200 (step S304).
  • the communication unit 260 of the operator terminal 200 receives the shared data from the wearable terminal 100 (step S305).
  • the received data is stored in the storage unit 240 as necessary.
  • the screen display of the output unit 230 is updated based on the received shared data (step S306). If there is no previous screen immediately after image sharing is started, screen display is simply started. When audio data is also present, audio output may be performed by the output unit 230 in combination with image display as necessary.
  • the work information display module 131 of the wearable terminal 100 acquires the work information of the emergency crew member 600 (step S307).
  • the work information here and the method of acquiring the work information are as described above.
  • the work information display module 131 of the wearable terminal 100 checks whether the work information has been acquired (step S308).
  • the work information display module 131 displays the work information on the output unit 130. Is updated (step S309).
  • step S309 immediately after starting the acquisition of the work information, if there is no previous work information, the display of the work information is simply started. If the work information cannot be acquired because the patient 700 has not been confirmed yet or the work has not been started, the work information display update is skipped and the process proceeds to the next step S310. Proceed with In step S309, when the previous work information is compared with the current work information and there is no update, the display update may be omitted.
  • control unit 150 of the wearable terminal 100 confirms whether to end image sharing (step S310). Whether to end the image sharing may be determined according to the input from the emergency personnel 600 to the wearable terminal 100, or may be determined according to the situation such as whether the patient 700 has arrived at the destination hospital. Be good.
  • step S304 to step S310 is repeated while image sharing is performed, but wait processing may be appropriately performed in the middle in consideration of the communication status, system load, and the like.
  • the behavior verification module 241 of the operator terminal 200 ends the recording of the shared data (step S312).
  • the behavior verification module 241 of the operator terminal 200 enables behavior verification based on the recorded shared data (step S313).
  • the timing of the action verification may be any time after the end of image sharing, and there is no problem even at a later date, not just after the end of image sharing.
  • FIG. 13 is an example of an action verification screen of the operator terminal 200.
  • the behavior verification module 241 displays the recorded shared data on the output unit 230 of the operator terminal 200.
  • the moving image display unit 1301 may display a captured image, and may output audio when there is audio data. It is assumed that the moving image display unit 1301 can perform operations such as playback, pause, fast forward, and rewind, like a normal video display function.
  • the information display unit 1302 can display work information in time series. If instruction information exists, it may be displayed in accordance with the information display unit 1302.
  • the action verification module 241 enables the recorded shared data to be confirmed later by a person concerned, and by verifying whether an appropriate medical practice has been performed, Good emergency medical care can be performed.
  • FIG. 8 is a diagram showing the functional blocks of wearable terminal 100 and operator terminal 200 having a route display function and the relationship between the functions.
  • the wearable terminal 100 includes a position information acquisition unit 170, and the output unit 230 of the operator terminal 200 implements the route display module 233 in cooperation with the control unit 250.
  • the position information acquisition unit 170 can acquire information such as the latitude, longitude, altitude, etc. of the wearable terminal 100 by a GPS (Global Positioning System) function or the like. It is assumed that the position information can be obtained.
  • GPS Global Positioning System
  • FIG. 9 is a flowchart of emergency captured image sharing processing of the wearable terminal 100 and the operator terminal 200 having a route display function.
  • the camera unit 110 starts imaging, and at the same time, the position information acquisition unit 170 starts acquiring position information (step S401). It is desirable that the timing for starting imaging and acquisition of position information be before the patient 700 is reached. This is because the condition of the patient 700 can be recorded from the timing of first contact. In the imaging here, sound may be recorded together with the moving image. By sharing the voice, the operator terminal 200 can know the situation at the site in more detail.
  • the captured image and sound and the position information of the wearable terminal 100 are stored in the storage unit 140.
  • wearable terminal 100 After the start of image capturing and acquisition of position information, wearable terminal 100 notifies operator terminal 200 of the start of image sharing via communication unit 160 (step S402).
  • the route display module 233 of the operator terminal 200 starts recording shared data (step S403).
  • the shared data here is a captured image, work information, and position information received in a subsequent step. Further, in the case of a configuration having the above-described instruction information display function, the instruction information is also included in the shared data and recorded together.
  • the communication unit 160 of the wearable terminal 100 transmits shared data to the operator terminal 200 (step S404).
  • the communication unit 260 of the operator terminal 200 receives the shared data from the wearable terminal 100 (step S405).
  • the received data is stored in the storage unit 240 as necessary.
  • the screen display of the output unit 230 is updated based on the received shared data (step S406). If there is no previous screen immediately after image sharing is started, screen display is simply started. When audio data is also present, audio output may be performed by the output unit 230 in combination with image display as necessary.
  • the work information display module 131 of the wearable terminal 100 acquires the work information of the emergency crew member 600 (step S407).
  • the work information here and the method of acquiring the work information are as described above.
  • the work information display module 131 of the wearable terminal 100 checks whether the work information has been acquired (step S408).
  • the work information display module 131 displays the work information on the output unit 130. Is updated (step S409).
  • step S409 immediately after starting the acquisition of the work information, if there is no previous work information, the display of the work information is simply started. If the work information cannot be acquired because the patient 700 has not been confirmed yet, the work has not started, etc., the work information display update is skipped and the process proceeds to the next step S410. Proceed with.
  • step S409 when the previous work information is compared with the current work information and there is no update, the display update may be omitted.
  • control unit 150 of the wearable terminal 100 confirms whether or not to end the image sharing (step S410). Whether to end the image sharing may be determined according to the input from the emergency personnel 600 to the wearable terminal 100, or may be determined according to the situation such as whether the patient 700 has arrived at the transport destination hospital. Be good.
  • step S404 wearable terminal 100 notifies operator terminal 200 of the end of image sharing via communication unit 160 (step S411).
  • step S404 to step S410 is repeated while image sharing is performed, but wait processing may be appropriately performed in the middle in consideration of the communication status, system load, and the like.
  • the route display module 233 of the operator terminal 200 ends the recording of the shared data (step S412).
  • the route display module 233 of the operator terminal 200 performs route display based on the recorded position information (step S413).
  • the timing of route display is after the end of image sharing in order to verify the route after the fact, but in order to know the position of the ambulance 500 in real time on the operator terminal 200, the route display module 233 is displayed.
  • the route display up to that point may be displayed.
  • the route display module 233 records shared data, but when the behavior verification module 241 exists, the route display module 233 only records position information in the shared data, The behavior verification module 241 may record the remaining shared data.
  • FIG. 14 is an example of a route display screen of the operator terminal 200.
  • the route display module 233 displays the recorded position information on the output unit 230 of the operator terminal 200.
  • the route display unit 1401 displays a road map between the position where the patient 700 starts to be transported and the hospital, and a route indicating which route the patient 700 has been transported to the hospital. The passing time of each point may be displayed on the map.
  • the location information recorded by the route display module 233 can be confirmed by a related person at a later date. Can be carried out. In addition, by confirming the position information at that time with the operator terminal 200 during the transportation with the ambulance 500, it is possible to predict how long it will arrive at the hospital, which is useful for making appropriate preparations for acceptance. It is also possible.
  • FIG. 10 is a diagram illustrating the functional blocks of the wearable terminal 100, the operator terminal 200, and the server 400 and the relationship between the functions when the system includes a server.
  • a server 400 is connected via the communication network 300.
  • the communication network 300 may be a public communication network or a dedicated communication network.
  • the server 400 includes a communication unit 410, a control unit 420, and a storage unit 430.
  • the communication network 300 only needs to be able to communicate between the wearable terminal 100 and the server 400 and between the operator terminal 200 and the server 400, and even if the wearable terminal 100 and the operator terminal 200 are not directly communicable. Good.
  • communication between the wearable terminal 100 and the operator terminal 200 in the flowcharts of FIGS. 3, 5, 7, and 9 may be performed via the server 400.
  • the shared data can be stored in the storage unit 430 of the server 400 by passing through the server 400 during transmission / reception of the shared data.
  • the storage unit 430 may be provided with a shared data database. Thereby, even when there are a plurality of wearable terminals 100 and a plurality of operator terminals 200, the control is facilitated through the server. Further, by referring to the database of the server 400, various cases of different hospitals can be verified. Further, if data is accumulated on the server side, unnecessary data can be deleted so that the capacity of the storage unit 140 of the wearable terminal 100 and the storage unit 240 of the operator terminal 200 is not compressed.
  • the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
  • the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD-RAM, etc.), compact memory, and the like.
  • the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】 救急隊員に装着されたウェアラブル端末によって撮像された撮像画像と救急隊員が行った作業に関する作業情報とを、病院内にあるオペレータ端末と共有する救急撮像画像共有システムを提供する。 【解決手段】 ウェアラブル端末100で撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末200と共有する救急撮像画像共有システムに、作業情報表示モジュール131および作業情報表示モジュール231を備えることで、救急隊員が行った作業に関する作業情報を共有された撮像画像に表示し、その後の医療作業を向上させる。

Description

救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム
 本発明は、救急隊員に装着されたウェアラブル端末によって撮像された撮像画像と救急隊員が行った作業に関する作業情報を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する、救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラムに関する。
 従来、救急車の車載カメラにより患者の容体情報を伝送して、ビデオ会議システムで病院と共有するシステムが存在する。また、特許文献1には、患者の容体に適切な医療施設であって、患者を受け入れることのできる医療施設を素早く決定し、また、複数間の医療施設の医師間で情報共有が可能となる救急システムが提案されている。
特開2006-276922号公報
 しかしながら、従来のシステムや特許文献1の手法では、車載カメラによる患者の撮影であるため、救急車内の特定の位置からの撮影しか行えず、患者の容体がわからないタイミングが存在した。また、救急隊員等により行われた患者への作業に関する作業情報を、車載カメラによって撮影された画像に表示することはできなかった。
 さらに、従来のシステムや特許文献1の手法では、車載カメラによる撮影だけであるために、事後に、救急隊員の行動が適切なものであったかどうかの検証を行うことや改善点の発見を行うことが難しかった。
 そこで、本発明では、上記の課題に鑑みて、救急隊員に装着されたウェアラブル端末によって撮像された撮像画像と救急隊員が行った作業に関する作業情報を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する、救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 第1の特徴に係る発明は、
 救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有システムであって、
 前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示手段
を備えることを特徴とする救急撮像画像共有システムを提供する。
 第1の特徴に係る発明によれば、救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有システムにおいて、前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示手段を備える。
 第1の特徴に係る発明は、救急撮像画像共有システムのカテゴリであるが、救急撮像画像共有方法、および救急撮像画像共有プログラムであっても同様の作用、効果を奏する。
 第2の特徴に係る発明は、第1の特徴に係る発明である救急撮像画像共有システムであって、
 前記作業情報を、救急車内に備えられた救急機器から取得することを特徴とする救急撮像画像共有システムを提供する。
 第2の特徴に係る発明によれば、第1の特徴に係る発明である救急撮像画像共有システムは、前記作業情報を、救急車内に備えられた救急機器から取得する。
 第3の特徴に係る発明は、第1または第2の特徴に係る発明である救急撮像画像共有システムであって、
 前記オペレータ端末から入力された指示情報を、前記共有された撮像画像に表示する指示情報表示手段
を備えることを特徴とする救急撮像画像共有システムを提供する。
 第3の特徴に係る発明によれば、第1または第2の特徴に係る発明である救急撮像画像共有システムは、前記オペレータ端末から入力された指示情報を、前記共有された撮像画像に表示する指示情報表示手段を備える。
 第4の特徴に係る発明は、第1から第3のいずれかの特徴に係る発明である救急撮像画像共有システムであって、
 前記共有された撮像画像に表示された前記救急隊員の行動を、画像認識して検証する行動検証手段
を備えることを特徴とする救急撮像画像共有システムを提供する。
 第4の特徴に係る発明によれば、第1から第3のいずれかの特徴に係る発明である救急撮像画像共有システムは、前記共有された撮像画像に表示された前記救急隊員の行動を、画像認識して検証する行動検証手段を備える。
 第5の特徴に係る発明は、第1から第4のいずれかの特徴に係る発明である救急撮像画像共有システムであって、
 前記ウェアラブル端末に位置情報取得部を備え、
 前記位置情報取得部で取得された位置情報の履歴から、前記救急隊員が前記病院までに通ってきた移動ルートを、前記オペレータ端末に表示するルート表示手段
を備えることを特徴とする救急撮像画像共有システムを提供する。
 第5の特徴に係る発明によれば、第1から第4のいずれかの特徴に係る発明である救急撮像画像共有システムは、前記ウェアラブル端末に位置情報取得部を備え、前記位置情報取得部で取得された位置情報の履歴から、前記救急隊員が前記病院までに通ってきた移動ルートを、前記オペレータ端末に表示するルート表示手段を備える。
 第6の特徴に係る発明は、
 救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有方法であって、
 前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示ステップ
を備えることを特徴とする救急撮像画像共有方法を提供する。
 第7の特徴に係る発明は、
 救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有システムに、
 前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示ステップ
を実行させるための救急撮像画像共有プログラムを提供する。
 本発明によれば、救急隊員に装着されたウェアラブル端末によって撮像された撮像画像と救急隊員が行った作業に関する作業情報を、ネットワークを介して接続された病院内にあるオペレータ端末と共有することで、救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラムを提供することが可能となる。
図1は、本発明の好適な実施形態の概要図である。 図2は、ウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。 図3は、ウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。 図4は、指示情報表示機能を備えたウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。 図5は、指示情報表示機能を備えたウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。 図6は、行動検証機能を備えたウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。 図7は、行動検証機能を備えたウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。 図8は、ルート表示機能を備えたウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。 図9は、ルート表示機能を備えたウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。 図10は、ウェアラブル端末100とオペレータ端末200とサーバ400の機能ブロックと各機能の関係を示す図である。 図11は、ウェアラブル端末100とオペレータ端末200の救急撮像画像共有の画面表示の一例である。 図12は、ウェアラブル端末100とオペレータ端末200の救急撮像画像共有でオペレータ端末から入力された指示情報の画面表示の一例である。 図13は、オペレータ端末200の行動検証画面の一例である。 図14は、オペレータ端末200のルート表示画面の一例である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
 [救急撮像画像共有システム概要]
 本発明の概要について図1に基づいて、説明する。ウェアラブル端末100は、図2に示すように、カメラ部110、入力部120、出力部130、記憶部140、制御部150、通信部160から構成される。出力部130は制御部150と協働して作業情報表示モジュール131を実現する。また、オペレータ端末200は、同じく図2に示すように、入力部220、出力部230、記憶部240、制御部250、通信部260から構成される。出力部230は制御部250と協働して作業情報表示モジュール231を実現する。ウェアラブル端末100とオペレータ端末200は、通信網300を介して接続されているものとする。通信網300は、公衆通信網でも専用通信網でも良い。ウェアラブル端末100を装着した救急隊員600は、救急車500に搭乗し、患者700に対して応急処置を行いながら、病院に搬送を行うものとする。
 救急隊員600は、患者700に対して応急処置を行いながら、救急車500で病院に搬送を行う際に、ウェアラブル端末100のカメラ部110により、撮像を開始する(ステップS01)。撮像を開始するタイミングは、患者700の場所に到着する前であることが望ましい。これは、患者700の容体を、初めて接触するタイミングから記録することができるためである。また、ここでの撮像では、動画と併せて音声も記録してよいものとする。音声も共有することにより、オペレータ端末200で、より詳しく現場の状況を知ることが可能となる。撮像した画像と音声は、記憶部140に記憶する。
 撮像開始後、ウェアラブル端末100は、オペレータ端末200と、画像共有を行う(ステップS02)。具体的には、ウェアラブル端末100のカメラ部110で撮像した画像を、オペレータ端末200の出力部230に表示する。ここでは、ウェアラブル端末100は、救急隊員600に装着されており、救急隊員600の視界に映る映像を常にオペレータ端末200と共有することで、状況を正確に伝えることが可能となる。
 ウェアラブル端末100の作業情報表示モジュール131は、救急隊員600の作業情報を取得する(ステップS03)。ここでの作業情報とは、時間毎に、救急隊員600が患者700に対して行った応急処置の内容や、患者700の容体が確認できる心電図、経皮的動脈血酸素飽和度、血圧、脈拍等であるものとする。作業情報を取得する方法として、撮像画像の画像解析が考えられる。救急隊員600が行える処置の内容は、気道確保・人工呼吸・胸骨圧迫心マッサージ・除細動・酸素吸入・止血に関する処置・創傷に対する処置・骨折に対する処置・体位・保温等、ある程度決まったものであるため、事前に各作業の画像を解析するための適切な機械学習を行っておくことで、撮像画像から作業情報を取得することが可能となる。また、心電図、経皮的動脈血酸素飽和度、血圧、脈拍等の情報を取得する方法として、救急車500内に備えられた救急機器とウェアラブル端末100が直接通信を行ってもよい。救急車500内に備えられた救急機器とウェアラブル端末100とが直接通信を行えない場合には、通信網300を介して、情報を取得してもよい。また、救急車500内に備えられた救急機器が通信機能を備えない場合には、撮像画像の解析により、救急隊員600が確認した各数値を情報として取得してもよい。
 最後に、ウェアラブル端末100の作業情報表示モジュール131が出力部130に作業情報を表示し、また、オペレータ端末200の作業情報表示モジュール231が出力部230に作業情報を表示する(ステップS04)。図1では、作業情報表示モジュール131が救急隊員600の視界の映像として見える患者700を邪魔しない位置に、ウェアラブル端末100の出力部130に作業情報として、「胸骨圧迫マッサージ 2016/4/4 20:15開始」「血圧 80/42」「脈拍 40」を表示している。また、オペレータ端末200の出力部230には、撮像画像として画像共有している患者700の様子が表示され、併せて、作業情報表示モジュール231が作業情報として、「胸骨圧迫マッサージ 2016/4/4 20:15開始」「血圧 80/42」「脈拍 40」を表示している。これらの情報を基に、この後、オペレータ端末200からウェアラブル端末100に対してリアルタイムに適切な作業指示を行うことも可能であるし、病院搬送後に、救急隊員600が行った作業に対して適した治療を、医療関係者が即座に開始することが可能である。
 このように、本発明によれば、救急隊員に装着されたウェアラブル端末によって撮像された撮像画像と救急隊員が行った作業に関する作業情報を、ネットワークを介して接続された病院内にあるオペレータ端末と共有することで、適切な医療行為を行うことが可能となる。
 [各機能の説明]
 図2は、ウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。ウェアラブル端末100は、カメラ部110、入力部120、出力部130、記憶部140、制御部150、通信部160から構成される。出力部130は制御部150と協働して作業情報表示モジュール131を実現する。また、オペレータ端末200は、同じく図2に示すように、入力部220、出力部230、記憶部240、制御部250、通信部260から構成される。出力部230は制御部250と協働して作業情報表示モジュール231を実現する。ウェアラブル端末100とオペレータ端末200は、通信網300を介して接続されているものとする。通信網300は、公衆通信網でも専用通信網でも良い。
 ウェアラブル端末100は、カメラによる撮像を行え、各種アプリケーションを実行する一般的なウェアラブルデバイスであって良く、後述する機能を備える情報機器や電化製品である。ここで、ウェアラブル端末100として図示している眼鏡型の端末(スマートグラス)はその一例にすぎない。ただし、本発明におけるウェアラブル端末は、装着者である救急隊員600の視界を、ハンズフリーで撮像できることが望ましい。
 ウェアラブル端末100は、カメラ部110にカメラを備える。撮像した画像をデジタルデータに変換して、記憶部140に保存する。画像データとあわせて音声データも保存可能であることが望ましい。音声データの取得には、入力部のマイク機能を使用しても差し支えない。撮像画像は動画像であることが望ましく、動画像の場合には、制御部150の働きにより、動画像の一部を切り出して、静止画像として記憶部140に保存することも可能であるとする。また、撮像して得られる画像は、ユーザが必要なだけの情報量を持った精密な画像であるものとし、画素数や画質を指定可能としても良いし、通信状況に応じて画素数や画質を自動で切り替えてもよいものとする。
 入力部120は、撮像の指定と画像共有の開始を行うために必要な機能を備えるものとする。例として、タッチパネル機能を実現する液晶ディスプレイ、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。入力方法により、本発明は特に機能を限定されるものではない。
 出力部130は制御部150と協働して作業情報表示モジュール131を実現する。また、作業情報の表示や指示情報の表示を行うために必要な機能を備えるものとする。例として、ヘッドマウント型や眼鏡型等の液晶ディスプレイへの画面表示が考えられる。または、スピーカーやヘッドフォン、イヤフォン等の音声出力を行えるようにしてもよい。出力方法により、本発明は特に機能を限定されるものではない。
 記憶部140として、ハードディスクや半導体メモリによる、データのストレージ部を備える。撮像した画像や作業情報、その他、必要に応じて患者700のデータ、作業検証用データ、ルートデータ等を記憶する。
 制御部150として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。
 通信部160は、例えば、IEEE802.11に準拠したWiFi対応デバイス、又は、Bluetooth、NFC、3G、LTE等の規格に準拠した無線デバイス等を備え、通信網300を介してオペレータ端末200との通信が可能であるものとする。
 オペレータ端末200は、一般的な情報端末であって良く、後述する機能を備える情報機器や電化製品である。携帯電話やスマートフォン、タブレットPC、ノートPC、ウェアラブルデバイス、又はディスプレイを備えたPC等の一般的な情報家電やその他の電化製品であって良い。オペレータ端末200として図示しているデスクトップPCはその一例にすぎない。
 入力部220は、ウェアラブル端末100に対する作業指示の入力を行うために必要な機能を備えるものとする。例として、タッチパネル機能を実現する液晶ディスプレイ、キーボード、マウス、ペンタブレット、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。入力方法により、本発明は特に機能を限定されるものではない。
 出力部230は、制御部250と協働して作業情報表示モジュール231を実現する。また、救急撮像画像共有を行うために必要な機能を備えるものとする。例として、液晶ディスプレイ、PCのディスプレイ、プロジェクターへの投影等の画面表示、更に、スピーカーやヘッドフォン、イヤフォン等の音声出力等が考えられる。出力方法により、本発明は特に機能を限定されるものではない。
 記憶部240として、ハードディスクや半導体メモリによる、データのストレージ部を備え、画像共有のために必要なデータ等を記憶する。
 制御部250として、CPU、RAM、ROM等を備える。
 通信部260は、例えば、IEEE802.11に準拠したWiFi対応デバイス、又は、Bluetooth、NFC、3G、LTE等の規格に準拠した無線デバイス等、または有線接続による通信機能を備え、通信網300を介してウェアラブル端末100との通信が可能であるものとする。
 [救急撮像画像共有処理]
 図3は、ウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。ウェアラブル端末100は、救急隊員600に装着されており、救急隊員600の視界に映る映像をカメラ部110で撮像可能であるものとする。また、オペレータ端末200は、患者700を搬送する病院内にあることを想定する。
 ウェアラブル端末100のカメラ部110は、救急隊員600が患者700に対して応急処置を行いながら救急車500で病院に搬送を行う際に、撮像を開始する(ステップS101)。撮像を開始するタイミングは、患者700の場所に到着する前であることが望ましい。これは、患者700の容体を、初めて接触するタイミングから記録することができるためである。また、ここでの撮像では、動画と併せて音声も記録してよいものとする。音声も共有することにより、オペレータ端末200で、より詳しく現場の状況を知ることが可能となる。撮像した画像と音声は、ウェアラブル端末100の記憶部140に記憶する。
 撮像開始後、ウェアラブル端末100は通信部160を介して、オペレータ端末200に対して画像共有開始を通知する(ステップS102)。
 画像共有開始の通知後、ウェアラブル端末100の通信部160は、オペレータ端末200に対して共有データを送信する(ステップS103)。ここでの共有データとは、ウェアラブル端末100の撮像画像である。つまり、救急隊員600の視界に映る映像と救急隊員600が聞こえる音声を、オペレータ端末200での画像共有用データとして送信するものである。
 次に、オペレータ端末200の通信部260は、ウェアラブル端末100からの共有データを受信する(ステップS104)。受信したデータは、必要に応じて記憶部240に記憶する。
 その後、受信した共有データをもとに、出力部230の画面表示の更新を行う(ステップS105)。ここで、画像共有を開始した直後で、前の画面が無い場合には、単に画面の表示を開始する。音声データも存在する場合には、必要に応じて、画像表示と併せて出力部230で音声出力を行ってもよい。
 共有データの送信後、ウェアラブル端末100の作業情報表示モジュール131は、救急隊員600の作業情報を取得する(ステップS106)。ここでの作業情報とは、時間毎に、救急隊員600が患者700に対して行った応急処置の内容や、患者700の容体が確認できる心電図、経皮的動脈血酸素飽和度、血圧、脈拍等であるものとする。作業情報を取得する方法として、撮像画像の画像解析が考えられる。救急隊員600が行える処置の内容は、気道確保・人工呼吸・胸骨圧迫心マッサージ・除細動・酸素吸入・止血に関する処置・創傷に対する処置・骨折に対する処置・体位・保温等、ある程度決まったものであるため、事前に各作業の画像を解析するための適切な機械学習を行っておくことで、撮像画像から作業情報を取得することが可能となる。また、心電図、経皮的動脈血酸素飽和度、血圧、脈拍等の情報を取得する方法として、救急車500内に備えられた救急機器とウェアラブル端末100が直接通信を行ってもよい。救急車500内に備えられた救急機器とウェアラブル端末100とが直接通信を行えない場合には、通信網300を介して、情報を取得してもよい。また、救急車500内に備えられた救急機器が通信機能を備えない場合には、撮像画像の解析により、救急隊員600が確認した各数値を情報として取得してもよい。
 次に、ウェアラブル端末100の作業情報表示モジュール131は、作業情報が取得できたかどうかの確認を行う(ステップS107)。
 撮像画像の画像解析や、救急車500内に備えられた救急機器からのデータ取得により、作業情報が取得できた場合には、作業情報表示モジュール131は、出力部130に対して、作業情報の表示を更新する(ステップS108)。ここで、作業情報の取得を開始した直後で、前の作業情報が無い場合には、単に作業情報の表示を開始する。また、まだ患者700の容体が確認できていない、作業を開始していない、等の理由で、作業情報が取得できなかった場合には、作業情報表示更新はスキップして、次のステップS109へと進む。ステップS108で、前回の作業情報と今回の作業情報を比較して、更新が無かった場合には、表示更新は省略してもよい。
 次に、ウェアラブル端末100の制御部150は、画像共有を終了するかどうかの確認を行う(ステップS109)。画像共有を終了するかどうかは、救急隊員600からウェアラブル端末100に対する入力に応じて判断してもよいし、患者700が搬送先の病院に到着したかどうか等の状況に応じて判断してもよいものとする。
 画像共有を終了しない場合、ステップS103に戻って処理を続ける。処理を続ける場合の共有データには、ウェアラブル端末100が取得した救急隊員600の作業情報が加わる。つまり、ウェアラブル端末100の撮像画像に加えて、作業情報が存在する場合には、共有データとしてオペレータ端末200に送信する(ステップS103)。
 オペレータ端末200の通信部260は、撮像画像と作業情報を共有データとして受信する(ステップS104)。
 その後、オペレータ端末200の作業情報表示モジュール231が、出力部230の画面表示を更新する際に、あわせて作業情報を表示する(ステップS105)。
 図11は、ウェアラブル端末100とオペレータ端末200の救急撮像画像共有の画面表示の一例である。ウェアラブル端末100の作業情報表示モジュール131が救急隊員600の視界の映像として見える患者700を邪魔しない位置に、作業情報として、「胸骨圧迫マッサージ 2016/4/4 20:15開始」「血圧 80/42」「脈拍 40」を表示している。また、オペレータ端末200の出力部230には、撮像画像として画像共有している患者700の様子が表示され、併せて、作業情報表示モジュール231が作業情報として、「胸骨圧迫マッサージ 2016/4/4 20:15開始」「血圧 80/42」「脈拍 40」を表示している。これらの情報は随時更新され、その情報を基に、この後、オペレータ端末200からウェアラブル端末100に対してリアルタイムに適切な作業指示を行うことも可能であるし、病院搬送後に、救急隊員600が行った作業にあった治療を即座に開始することが可能である。
 画像共有を終了する場合、ウェアラブル端末100は通信部160を介して、オペレータ端末200に対して画像共有終了を通知する(ステップS110)。
 ステップS103からステップS109の処理は、画像共有を行っている間繰り返すことになるが、通信状況やシステムの負荷等を鑑みて、途中、適切にウェイト処理を行ってもよい。
 また、撮像を開始した段階で、受け入れ先の病院が決定していない等の理由で、画像共有を開始できない場合には、撮像とあわせて、作業情報の取得を随時行っておいてもよい。受け入れ先が決まって、画像共有を開始した後で、リアルタイムの共有データだけでなく、それまでにウェアラブル端末100の記憶部140に蓄積した撮像画像と作業情報を、オペレータ端末200に送信し、後からオペレータ端末200で参照可能な構成としてもよい。
 このように、本発明によれば、救急隊員に装着されたウェアラブル端末によって撮像された撮像画像と救急隊員が行った作業に関する作業情報を、ネットワークを介して接続された病院内にあるオペレータ端末と共有することで、適切な医療行為を行うことが可能となる。
 [指示情報表示機能を備えた救急撮像画像共有処理]
 図4は、指示情報表示機能を備えたウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。図2の構成に加えて、ウェアラブル端末100の出力部130は制御部150と協働して指示情報表示モジュール132を、オペレータ端末200の出力部230は制御部250と協働して指示情報表示モジュール232を実現する。
 図5は、指示情報表示機能を備えたウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。図5のステップS201からステップS208は、図3のステップS101からステップS108に相当するため、ここでは、主にステップS209以降について、説明を行う。
 画面表示の更新(ステップS205)の後、オペレータ端末200の指示情報表示モジュール232は、ウェアラブル端末100に対する作業指示を行うかどうかの確認を行う(ステップS209)。
 ここで、指示を行わない場合には、オペレータ端末200は次の共有データ受信(ステップS204)に備えて待機する。指示を行う場合には、指示情報表示モジュール232は、入力部220を介して、病院の医師または医師から指示を受けたオペレータから、救急隊員600に対する指示の入力を受け付け、指示情報を出力部230に表示する(ステップS210)。指示情報とは、救急隊員600が患者700に対して行うべき、応急処置等の内容である。
 次に、指示情報表示モジュール232は、通信部260を介して、ウェアラブル端末100に指示情報を送信する(ステップS211)。
 ウェアラブル端末100の指示情報表示モジュール132は、通信部160を介して、指示情報を受信する(ステップS212)。
 受信後、指示情報表示モジュール132は、出力部130に対して、指示情報の表示を更新する(ステップS213)。ここで、初めて指示情報の受信を行った直後で、前の指示情報が無い場合には、単に指示情報の表示を開始する。
 図12は、ウェアラブル端末100とオペレータ端末200の救急撮像画像共有でオペレータ端末200から入力された指示情報の画面表示の一例である。オペレータ端末200の入力部220により、医師が「至急、酸素吸入をしてください。」という指示情報を入力した場合の例を示す。オペレータ端末200の出力部230には、撮像画像として画像共有している患者700の様子が表示され、併せて、作業情報表示モジュール231が作業情報として、「胸骨圧迫マッサージ 2016/4/4 20:15開始」「血圧 80/42」「脈拍 40」を表示している。ここに、指示情報表示モジュール232は、「<作業指示> 2016/4/4 20:22 至急、酸素吸入をしてください。」と入力内容の表示を行った。この時、救急隊員600が、指示の順番や優先度を理解するために、指示情報表示モジュール232が日付と時刻の情報を自動で取得し、指示内容とあわせて表示することが望ましい。ウェアラブル端末100の指示情報表示モジュール132は、指示情報の受信後、救急隊員600の視界の映像として見える患者700を邪魔しない位置に、指示情報として、「<作業指示> 2016/4/4 20:22 至急、酸素吸入をしてください。」と表示する。救急隊員600に対して、病院の医師からリアルタイムで作業指示を行うことで、患者700に対して適切な作業を行うことが可能となる。また、作業指示と作業情報の両方を、記録しておくことで、後から、適切な作業が行えたかどうかを検証する際に、役立てることができる。
 次に、ウェアラブル端末100の制御部150は、画像共有を終了するかどうかの確認を行う(ステップS214)。画像共有を終了するかどうかは、救急隊員600からウェアラブル端末100に対する入力に応じて判断してもよいし、患者700が搬送先の病院に到着したかどうか等の状況に応じて判断してもよいものとする。
 画像共有を終了しない場合、ステップS203に戻って処理を続ける。処理を続ける場合の共有データには、ステップS206でウェアラブル端末100が取得した救急隊員600の作業情報が加わる。つまり、ウェアラブル端末100の撮像画像に加えて、作業情報が存在する場合には、共有データとしてオペレータ端末200に送信する(ステップS203)。
 オペレータ端末200の通信部260は、撮像画像と作業情報を共有データとして受信する(ステップS204)。
 その後、オペレータ端末200の作業情報表示モジュール231が、出力部230の画面表示を更新する際に、あわせて作業情報を表示する(ステップS205)。
 画像共有を終了する場合、ウェアラブル端末100は通信部160を介して、オペレータ端末200に対して画像共有終了を通知する(ステップS215)。
 ステップS203からステップS214の処理は、画像共有を行っている間繰り返すことになるが、通信状況やシステムの負荷等を鑑みて、途中、適切にウェイト処理を行ってもよい。
 このように、本発明によれば、救急隊員600に対して、病院の医師からリアルタイムで作業指示を行うことができ、患者700に対して、適切な医療行為を行うことが可能となる。
 [行動検証機能を備えた救急撮像画像共有処理]
 図6は、行動検証機能を備えたウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。図2の構成に加えて、オペレータ端末200の記憶部240は制御部250と協働して行動検証モジュール241を実現する。
 図7は、行動検証機能を備えたウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。図7のステップS301、ステップS302は、図3のステップS101、ステップS102に相当するため、ここでは、主にステップS303以降について、説明を行う。
 ウェアラブル端末100からの画像共有開始の通知を受け、オペレータ端末200の行動検証モジュール241は共有データの記録を開始する(ステップS303)。ここでの共有データとは、この後のステップで受信する、撮像画像と作業情報である。また、前述した指示情報表示機能を備える構成の場合には、指示情報も共有データに含めて、あわせて記録を行うものとする。
 画像共有開始の通知後、ウェアラブル端末100の通信部160は、オペレータ端末200に対して共有データを送信する(ステップS304)。
 次に、オペレータ端末200の通信部260は、ウェアラブル端末100からの共有データを受信する(ステップS305)。受信したデータは、必要に応じて記憶部240に記憶する。
 その後、受信した共有データをもとに、出力部230の画面表示の更新を行う(ステップS306)。ここで、画像共有を開始した直後で、前の画面が無い場合には、単に画面の表示を開始する。音声データも存在する場合には、必要に応じて、画像表示と併せて出力部230で音声出力を行ってもよい。
 共有データの送信後、ウェアラブル端末100の作業情報表示モジュール131は、救急隊員600の作業情報を取得する(ステップS307)。ここでの作業情報と作業情報を取得する方法は前述した通りである。
 次に、ウェアラブル端末100の作業情報表示モジュール131は、作業情報が取得できたかどうかの確認を行う(ステップS308)。
 撮像画像の画像解析や、救急車500内に備えられた救急機器からのデータ取得により、作業情報が取得できた場合には、作業情報表示モジュール131は、出力部130に対して、作業情報の表示を更新する(ステップS309)。ここで、作業情報の取得を開始した直後で、前の作業情報が無い場合には、単に作業情報の表示を開始する。また、まだ患者700の容体が確認できていない、作業を開始していない、等の理由で、作業情報が取得できなかった場合には、作業情報表示更新はスキップして、次のステップS310へと進む。ステップS309で、前回の作業情報と今回の作業情報を比較して、更新が無かった場合には、表示更新は省略してもよい。
 次に、ウェアラブル端末100の制御部150は、画像共有を終了するかどうかの確認を行う(ステップS310)。画像共有を終了するかどうかは、救急隊員600からウェアラブル端末100に対する入力に応じて判断してもよいし、患者700が搬送先の病院に到着したかどうか等の状況に応じて判断してもよいものとする。
 画像共有を終了しない場合、ステップS304に戻って処理を続ける。画像共有を終了する場合、ウェアラブル端末100は通信部160を介して、オペレータ端末200に対して画像共有終了を通知する(ステップS311)。
 ステップS304からステップS310の処理は、画像共有を行っている間繰り返すことになるが、通信状況やシステムの負荷等を鑑みて、途中、適切にウェイト処理を行ってもよい。
 ウェアラブル端末100からの画像共有終了の通知を受け、オペレータ端末200の行動検証モジュール241は共有データの記録を終了する(ステップS312)。
 その後、オペレータ端末200の行動検証モジュール241は、記録した共有データをもとにして、行動検証を可能とする(ステップS313)。行動検証のタイミングとしては、画像共有の終了後であればいつでも良く、画像共有の終了直後ではなく、後日でも問題ないものとする。
 図13は、オペレータ端末200の行動検証画面の一例である。行動検証モジュール241は、オペレータ端末200の出力部230に、記録した共有データを表示する。動画表示部1301には、撮像画像の表示を可能とし、あわせて音声データがある場合には音声出力を行ってもよい。動画表示部1301は、通常のビデオ表示機能のように、再生、一時停止、早送り、巻き戻し、等の操作が実現可能であるものとする。また、情報表示部1302には、時系列に作業情報の表示を可能とする。もし、指示情報が存在する場合には、情報表示部1302にあわせて表示してもよい。
 このように、本発明によれば、行動検証モジュール241により、記録した共有データを、後日、関係者で確認することが可能となり、適切な医療行為を行ったかどうかを検証することにより、次により良い救急医療を行うことが可能となる。
 [ルート表示機能を備えた救急撮像画像共有処理]
 図8は、ルート表示機能を備えたウェアラブル端末100とオペレータ端末200の機能ブロックと各機能の関係を示す図である。図2の構成に加えて、ウェアラブル端末100に、位置情報取得部170を備え、オペレータ端末200の出力部230は制御部250と協働してルート表示モジュール233を実現する。位置情報取得部170は、GPS(Global Positioning System)機能等により、ウェアラブル端末100の緯度、経度、高度等の情報を取得可能であるものとし、地図機能と併せて、ある時刻にどの位置にいるかという位置情報を得られるものとする。
 図9は、ルート表示機能を備えたウェアラブル端末100とオペレータ端末200の救急撮像画像共有処理のフローチャート図である。
 ウェアラブル端末100は、患者700を病院に搬送する際に、カメラ部110により撮像を開始し、併せて、位置情報取得部170により位置情報の取得を開始する(ステップS401)。撮像と位置情報の取得を開始するタイミングは、患者700の場所に到着する前であることが望ましい。これは、患者700の容体を、初めて接触するタイミングから記録することができるためである。また、ここでの撮像では、動画と併せて音声も記録してよいものとする。音声も共有することにより、オペレータ端末200で、より詳しく現場の状況を知ることが可能となる。撮像した画像と音声、ウェアラブル端末100の位置情報は、記憶部140に記憶する。
 撮像と位置情報の取得開始後、ウェアラブル端末100は通信部160を介して、オペレータ端末200に対して画像共有開始を通知する(ステップS402)。
 ウェアラブル端末100からの画像共有開始の通知を受け、オペレータ端末200のルート表示モジュール233は共有データの記録を開始する(ステップS403)。ここでの共有データとは、この後のステップで受信する、撮像画像と作業情報と位置情報である。また、前述した指示情報表示機能を備える構成の場合には、指示情報も共有データに含めて、あわせて記録を行うものとする。
 画像共有開始の通知後、ウェアラブル端末100の通信部160は、オペレータ端末200に対して共有データを送信する(ステップS404)。
 次に、オペレータ端末200の通信部260は、ウェアラブル端末100からの共有データを受信する(ステップS405)。受信したデータは、必要に応じて記憶部240に記憶する。
 その後、受信した共有データをもとに、出力部230の画面表示の更新を行う(ステップS406)。ここで、画像共有を開始した直後で、前の画面が無い場合には、単に画面の表示を開始する。音声データも存在する場合には、必要に応じて、画像表示と併せて出力部230で音声出力を行ってもよい。
 共有データの送信後、ウェアラブル端末100の作業情報表示モジュール131は、救急隊員600の作業情報を取得する(ステップS407)。ここでの作業情報と作業情報を取得する方法は前述した通りである。
 次に、ウェアラブル端末100の作業情報表示モジュール131は、作業情報が取得できたかどうかの確認を行う(ステップS408)。
 撮像画像の画像解析や、救急車500内に備えられた救急機器からのデータ取得により、作業情報が取得できた場合には、作業情報表示モジュール131は、出力部130に対して、作業情報の表示を更新する(ステップS409)。ここで、作業情報の取得を開始した直後で、前の作業情報が無い場合には、単に作業情報の表示を開始する。また、まだ患者700の容体が確認できていない、作業を開始していない、等の理由で、作業情報が取得できなかった場合には、作業情報表示更新はスキップして、次のステップS410へと進む。ステップS409で、前回の作業情報と今回の作業情報を比較して、更新が無かった場合には、表示更新は省略してもよい。
 次に、ウェアラブル端末100の制御部150は、画像共有を終了するかどうかの確認を行う(ステップS410)。画像共有を終了するかどうかは、救急隊員600からウェアラブル端末100に対する入力に応じて判断してもよいし、患者700が搬送先の病院に到着したかどうか等の状況に応じて判断してもよいものとする。
 画像共有を終了しない場合、ステップS404に戻って処理を続ける。画像共有を終了する場合、ウェアラブル端末100は通信部160を介して、オペレータ端末200に対して画像共有終了を通知する(ステップS411)。
 ステップS404からステップS410の処理は、画像共有を行っている間繰り返すことになるが、通信状況やシステムの負荷等を鑑みて、途中、適切にウェイト処理を行ってもよい。
 ウェアラブル端末100からの画像共有終了の通知を受け、オペレータ端末200のルート表示モジュール233は共有データの記録を終了する(ステップS412)。
 その後、オペレータ端末200のルート表示モジュール233は、記録した位置情報をもとにして、ルート表示を行う(ステップS413)。ここでは、事後にルートの検証を行うために、ルート表示のタイミングを画像共有の終了後とする例を示したが、オペレータ端末200でリアルタイムに救急車500の位置を知るために、ルート表示モジュール233がステップS406の画面表示更新の際に、あわせてその時点までのルート表示を行ってもよい。また、ここでは、ルート表示モジュール233が共有データの記録を行う例を示したが、行動検証モジュール241が存在する場合には、ルート表示モジュール233は共有データのうち位置情報の記録のみを行い、残りの共有データの記録は行動検証モジュール241が行ってもよい。
 図14は、オペレータ端末200のルート表示画面の一例である。ルート表示モジュール233は、オペレータ端末200の出力部230に、記録した位置情報を表示する。ルート表示部1401には、患者700の搬送を開始した位置と病院の間の、道路地図と、どの道を通って病院まで搬送したかのルート表示を行う。各地点の通過時間を、地図上にあわせて表示してもよい。
 このように、本発明によれば、ルート表示モジュール233により記録した位置情報を、後日、関係者で確認することが可能となり、適切なルートを通ったかどうか検証することにより、次により良いルートでの搬送を行うことが可能となる。また、救急車500での搬送途中に、オペレータ端末200でその時点での位置情報を確認することで、あとどのくらいで病院に到着するか予想することができ、適切な受け入れ準備を行うために、役立てることも可能である。
 [サーバを備えた救急撮像画像共有処理]
 図10は、システムにサーバを備えた場合のウェアラブル端末100とオペレータ端末200とサーバ400の機能ブロックと各機能の関係を示す図である。図2、図4、図6、図8のウェアラブル端末100とオペレータ端末200の構成に加えて、サーバ400が、通信網300を介して接続されているものとする。通信網300は、公衆通信網でも専用通信網でも良い。サーバ400は、通信部410、制御部420、記憶部430から構成される。サーバを備える構成の場合、通信網300は、ウェアラブル端末100とサーバ400、オペレータ端末200とサーバ400が、それぞれ通信可能であればよく、ウェアラブル端末100とオペレータ端末200が直接通信可能でなくてもよい。
 サーバを備えた構成にする場合、図3、図5、図7、図9の各フローチャートの、ウェアラブル端末100とオペレータ端末200間の通信は、サーバ400を介して行ってよい。また、共有データの送受信の間にサーバ400を介することで、サーバ400の記憶部430に共有データを記憶することができる。記憶部430に、共有データのデータベースを設けてもよい。これにより、複数のウェアラブル端末100と複数のオペレータ端末200が存在する場合にも、サーバを介することで制御を行いやすくする。また、サーバ400のデータベースを参照すれば、異なる病院の様々な事例の検証が可能となる。また、サーバ側にデータを蓄積しておけば、ウェアラブル端末100の記憶部140やオペレータ端末200の記憶部240の容量を圧迫することがないよう、不要なデータは削除可能である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)、コンパクトメモリ等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 100 ウェアラブル端末、200 オペレータ端末、300 通信網、400 サーバ、500 救急車、600 救急隊員、700 患者

Claims (7)

  1.  救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有システムであって、
     前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示手段
    を備えることを特徴とする救急撮像画像共有システム。
  2.  前記作業情報を、救急車内に備えられた救急機器から取得する
    ことを特徴とする請求項1に記載の救急撮像画像共有システム。
  3.  前記オペレータ端末から入力された指示情報を、前記共有された撮像画像に表示する指示情報表示手段
    を備えることを特徴とする請求項1または請求項2に記載の救急撮像画像共有システム。
  4.  前記共有された撮像画像に表示された前記救急隊員の行動を、画像認識して検証する行動検証手段
    を備えることを特徴とする請求項1から請求項3のいずれかに記載の救急撮像画像共有システム。
  5.  前記ウェアラブル端末に位置情報取得部を備え、
     前記位置情報取得部で取得された位置情報の履歴から、前記救急隊員が前記病院までに通ってきた移動ルートを、前記オペレータ端末に表示するルート表示手段
    を備えることを特徴とする請求項1から請求項4のいずれかに記載の救急撮像画像共有システム。
  6.  救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有方法であって、
     前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示ステップ
    を備えることを特徴とする救急撮像画像共有方法。
  7.  救急隊員に装着されたウェアラブル端末によって撮像された撮像画像を、ネットワークを介して接続された病院内にあるオペレータ端末と共有する救急撮像画像共有システムに、
     前記救急隊員が行った作業に関する作業情報を、前記共有された撮像画像に表示する作業情報表示ステップ
    を実行させるための救急撮像画像共有プログラム。
PCT/JP2016/062979 2016-04-26 2016-04-26 救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム WO2017187496A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/062979 WO2017187496A1 (ja) 2016-04-26 2016-04-26 救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/062979 WO2017187496A1 (ja) 2016-04-26 2016-04-26 救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム

Publications (1)

Publication Number Publication Date
WO2017187496A1 true WO2017187496A1 (ja) 2017-11-02

Family

ID=60160255

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/062979 WO2017187496A1 (ja) 2016-04-26 2016-04-26 救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム

Country Status (1)

Country Link
WO (1) WO2017187496A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198358A1 (ja) * 2018-04-13 2019-10-17 株式会社デジメット 個人医療情報集約システム
JP2019197494A (ja) * 2018-05-11 2019-11-14 富士フイルム株式会社 病院支援システム、病院支援方法、制御装置、及び制御プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003047001A (ja) * 2001-05-22 2003-02-14 Digital Foundation:Kk 遠隔音声映像通信システム
JP2004171394A (ja) * 2002-11-21 2004-06-17 Takanori Terajima 搬送先自動選択装置、搬送先自動選択システム、傷病者データベース生成装置、傷病者データベース検索装置並びに移動体
JP2015032061A (ja) * 2013-07-31 2015-02-16 富士フイルム株式会社 医療支援サーバ及びシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003047001A (ja) * 2001-05-22 2003-02-14 Digital Foundation:Kk 遠隔音声映像通信システム
JP2004171394A (ja) * 2002-11-21 2004-06-17 Takanori Terajima 搬送先自動選択装置、搬送先自動選択システム、傷病者データベース生成装置、傷病者データベース検索装置並びに移動体
JP2015032061A (ja) * 2013-07-31 2015-02-16 富士フイルム株式会社 医療支援サーバ及びシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198358A1 (ja) * 2018-04-13 2019-10-17 株式会社デジメット 個人医療情報集約システム
JP2019185534A (ja) * 2018-04-13 2019-10-24 株式会社デジメット 個人医療情報集約システム
TWI739088B (zh) * 2018-04-13 2021-09-11 日商數位美德公司 個人醫療情報整合系統
JP2019197494A (ja) * 2018-05-11 2019-11-14 富士フイルム株式会社 病院支援システム、病院支援方法、制御装置、及び制御プログラム
JP7048408B2 (ja) 2018-05-11 2022-04-05 富士フイルム株式会社 病院支援システム、病院支援方法、制御装置、及び制御プログラム

Similar Documents

Publication Publication Date Title
KR102535726B1 (ko) 이어폰 오장착 검출 방법, 이를 위한 전자 장치 및 저장 매체
US11395076B2 (en) Health monitoring with ear-wearable devices and accessory devices
US20170034682A1 (en) Initial rescue information collection device, operation method thereof, program, and system
WO2019169142A1 (en) Health monitoring with ear-wearable devices and accessory devices
KR101906551B1 (ko) 실시간 중계 및 송출 시스템
US20170140120A1 (en) Mobile data hub for patient monitors
KR20090105531A (ko) 카메라센서로 찍은 문서 이미지를 시각장애인에게 음성으로알려주는 방법 및 장치
JP2018521415A (ja) 心肺蘇生連携方法、コンピュータプログラム製品及びシステム
KR20170069790A (ko) 가상 현실 서비스에서 오디오 신호를 처리하는 방법 및 이를 위한 전자 장치
JP2017120588A (ja) 画面共有システム、画面共有方法、および画面共有プログラム
KR20170063275A (ko) 웨어러블 기기를 이용한 환자 관리 시스템 및 방법
CN102499715A (zh) 同轨迹超声图像动态对比系统及其对比方法
WO2017187496A1 (ja) 救急撮像画像共有システム、救急撮像画像共有方法、および救急撮像画像共有プログラム
CN109875505A (zh) 一种基于虚拟现实技术的一体化手术室远程会诊方法
JP2004171394A (ja) 搬送先自動選択装置、搬送先自動選択システム、傷病者データベース生成装置、傷病者データベース検索装置並びに移動体
JP4421929B2 (ja) サーバシステム
KR102303288B1 (ko) 환자 통합 관리 시스템
US11716580B2 (en) Health monitoring with ear-wearable devices and accessory devices
US20110124974A1 (en) Mobile medical communications system
JP2020067955A (ja) 表示システム、デバイス、プログラム、及びデバイスの制御方法
JP6145230B1 (ja) 画面共有遠隔診察システム、画面共有遠隔診察方法、および画面共有遠隔診察プログラム
CN108289146A (zh) 电子设备及其操作控制方法
JP5388035B2 (ja) サーバ装置、情報処理方法、およびプログラム
JP2006276922A (ja) 救急システムおよび患者情報共有方法
JP2016067844A (ja) ウェアラブル端末を用いたaed操作支援システム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16900369

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 21.02.2019)

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16900369

Country of ref document: EP

Kind code of ref document: A1