WO2020085147A1 - 看護支援装置、看護支援方法、記録媒体 - Google Patents
看護支援装置、看護支援方法、記録媒体 Download PDFInfo
- Publication number
- WO2020085147A1 WO2020085147A1 PCT/JP2019/040475 JP2019040475W WO2020085147A1 WO 2020085147 A1 WO2020085147 A1 WO 2020085147A1 JP 2019040475 W JP2019040475 W JP 2019040475W WO 2020085147 A1 WO2020085147 A1 WO 2020085147A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- nursing
- information
- patient
- coping
- alert
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/10—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
Definitions
- the present invention relates to a nursing support device, a nursing support method, and a recording medium.
- Nursing information refers to general information that a nurse should understand in nursing a patient, such as the patient's condition, the content of the patient's care, and changes in the patient's condition in nursing work for the patient. Refers to.
- a plurality of nurses who are involved in nursing a patient can understand the patient's condition and perform appropriate nursing for the patient based on the understanding.
- Patent Document 1 discloses a technique that allows the state of the observation target person to be easily grasped from the observation results accumulated for the observation target person.
- US Pat. No. 6,037,009 not only determines what a nurse needs to do for a particular patient, but also determines what needs to be done for a group of patients at a particular time or a particular time range. A technique is disclosed that enables the user to do so.
- Patent Document 3 discloses a technique for displaying information requesting an action by a health care worker of a patient.
- Patent Literature 4 discloses a technique in which a nurse presents useful knowledge when performing a treatment on a patient.
- the above-mentioned nursing information is often not fully utilized, and there is a demand for a technology for efficiently using the nursing information to notify a user such as a nurse of information for dealing with a patient by a nurse. ing.
- One example of an object of the present invention is to provide a nursing support device, a nursing support method, and a recording medium that solve the above problems.
- the nursing support apparatus includes a coping alert generation unit that generates a coping alert for nursing based on the nursing information and nursing coping rules of the patient, and an output destination apparatus for the nurse of the patient. And a countermeasure alert output unit that outputs the countermeasure alert.
- the nursing support method generates a coping alert for nursing based on the nursing information of the patient and the nursing coping rule, and outputs the coping alert to the output destination device for the nurse of the patient. Including output.
- the recording medium generates a coping alert for nursing on the computer based on the nursing information and nursing coping rules of the patient, and the coping with the output destination device for the caregiver of the patient. It stores a program that outputs an alert and executes the action.
- a nursing support device that utilizes nursing information to efficiently notify a user of information for dealing with a patient by a nurse.
- FIG. 1 shows the example of data which the nursing support apparatus by one Embodiment of this invention memorize
- stores It is a 2nd figure which shows the example of data which the nursing support apparatus by one Embodiment of this invention memorize
- 3rd figure which shows the data example which the nursing support apparatus by one Embodiment of this invention memorize
- FIG. 6 is a diagram showing a first example of a UI image according to an embodiment of the present invention.
- FIG. 8 is a diagram showing a second example of a UI image according to an embodiment of the present invention. It is a figure which shows the 3rd example of the UI image by one Embodiment of this invention. It is a figure which shows the 4th example of the UI image by one Embodiment of this invention.
- FIG. 1 shows an outline of a nursing support system 100 having a nursing support device 1 according to this embodiment.
- the nursing support device 1 is installed in a hospital or the like.
- the nursing support device 1 may be installed outside the hospital.
- the nursing support device 1 is communicatively connected to a terminal 2 such as a smartphone.
- a nursing support system 100 is configured by the nursing support device 1 and the terminal 2.
- the terminal 2 is possessed by, for example, a nurse or a doctor.
- the terminal 2 may be a PC or the like instead of a mobile terminal such as a smartphone.
- FIG. 2 is a diagram showing a hardware configuration of the nursing support device 1.
- the nursing support apparatus 1 is a computer including hardware such as a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a database 104, and a communication module 105. Is.
- a CPU Central Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- FIG. 3 is a functional block diagram of the nursing support device 1.
- the nursing support device 1 executes a nursing support program. Thereby, in the nursing support device 1, the control unit 11, the model generation unit 12, the acquisition unit 13, the type determination unit 14, the recording unit 15, the coping alert generation unit 16, the coping alert output unit 17, the nursing support information output unit 18, Each function of the UI image generation unit 19 and the severity degree calculation unit 20 is provided.
- the control unit 11 controls other functional units.
- the model generation unit 12 generates a record type determination model that specifies a record type for each nursing type based on past nursing information of a plurality of patients having the same nursing type.
- the recording type determination model includes a content determination model and a SOAP determination model, and detailed description thereof will be given later.
- the acquisition unit 13 acquires the input information received from the terminal 2.
- the type determination unit 14 determines at least the recording type of the input information received from the terminal 2.
- the recording unit 15 records at least the input information associated with the recording type as nursing information.
- the coping alert generation unit 16 generates a coping alert regarding nursing based on the nursing information of the patient and the nursing coping rule.
- the coping alert output unit 17 outputs a coping alert to the output destination device related to the patient's caregiver.
- the output destination device is the terminal 2.
- the nursing support information output unit 18 outputs the nursing support information related to the input information of the patient to the terminal 2 based on the acquisition of the designation information designating the patient identifier and the past input information regarding the patient from the terminal 2. To do.
- the UI image generator 19 generates a UI image to be output to the terminal 2.
- the severity calculating unit 20 calculates the severity of the patient.
- the nursing support apparatus 1 generates a coping alert for nursing based on the patient's nursing information and nursing coping rules, and outputs the coping alert to the terminal 2 for the patient's caregiver.
- the nursing support apparatus 1 transmits a coping alert to the terminal 2 for the patient having the nursing information specified based on the nursing coping rule, so that a user such as a nurse or a doctor can be notified to the patient. It is possible to efficiently notify of the awareness for coping.
- FIG. 4 is a first diagram showing an example of data (nursing information table) stored in the nursing support device 1.
- the nursing support apparatus 1 Based on the acquisition of the input information received from the terminal 2, the nursing support apparatus 1 stores the nursing information in which the patient ID, the nurse ID, the nursing type, the SOAP type, the recorded content type, the input information, and the like are linked in the nursing information table. Record.
- the nursing information table is recorded in the database 104.
- the nursing type indicates the type of nursing according to the patient's disease such as “fracture” and “stroke”.
- the nursing type may be information indicating a type that differs according to patient attributes such as the gender and age group of the patient, in addition to the type of nursing according to the disease of the patient.
- the SOAP type indicates whether the input information is “Subjective (subjective information)”, “Objective (objective information)”, “Assessment (evaluation information)”, or “Plan (plan, treatment information)”. This is the information to be specified.
- the recorded content type is information whose input information identifies what state of the patient.
- the input information is the main information to be recorded as the nursing information input via the terminal 2 by a user such as a nurse or a doctor.
- the nursing information may not include the nursing type.
- the SOAP type and the recorded content type will be described below.
- the input information received from the terminal 2 is information regarding the patient. This input information is recorded as nursing information.
- the nursing support device 1 specifies the recording type of the input information when recording the input information as the nursing information.
- the recording type is roughly classified into a SOAP type and a content type.
- the recorded content type is information for identifying the content of the input information.
- SOAP is a word obtained by acronyming "Subjective (subjective information)", “Objective (objective information)", “Assessment (evaluation information)", and "Plan (plan, treatment information)". Indicates the type of information.
- the type of “Subjective” is described as S.
- the type of "Objective” is expressed as O.
- A The type of “Assessment” is represented as A.
- the type of “Plan” is written as P.
- Subjective indicates information obtained directly from the patient.
- Objective indicates information obtained from a physical examination or examination by a nurse.
- Assessment indicates information of evaluation by a nurse or a doctor based on “Subjective” or “Objective”.
- Plan indicates a plan or treatment performed as a result of “Assessment”.
- FIG. 5 is a second diagram showing an example of data (content determination model table) stored in the nursing support apparatus 1.
- the content determination model is generated by the model generation unit 12 of the nursing support device 1 based on past nursing information of a plurality of patients.
- the content determination model is provided for each nursing type.
- the content determination model is recorded in the database 104.
- the content determination model is a model for determining the recorded content type.
- the nursing support device 1 stores a content determination model table for specifying a content determination model according to the nursing type in the database 104.
- the nursing support device 1 identifies a content determination model according to the nursing type from the content determination model table, and uses the content determination model to determine the recorded content type of the input information.
- one content judgment model may be recorded in the nursing support device 1, and the recorded content type of the input information may be judged using this content judgment model.
- FIG. 6 is a third diagram showing an example of data (SOAP determination model table) stored in the nursing support apparatus 1.
- the SOAP determination model is generated by the model generation unit 12 of the nursing support device 1 based on past nursing information of a plurality of patients.
- the SOAP judgment model is provided for each nursing type.
- the SOAP judgment model is recorded in the database 104.
- the nursing support device 1 also stores a SOAP determination model table for specifying a SOAP determination model according to the nursing type.
- the nursing support apparatus 1 identifies the SOAP judgment model according to the nursing classification from this SOAP judgment model table, and uses the SOAP judgment model to judge the SOAP classification of the input information.
- one SOAP determination model may be recorded in the nursing support apparatus 1, and the recorded content type of the input information may be determined using this SOAP determination model.
- the nursing support apparatus 1 uses the SOAP determination model and the input information included in the nursing information is the above-mentioned “Subjective (subjective information)”, “Objective (objective information)”, “Assessment (evaluation information)”, It is determined which of the recorded content types is “Plan (plan, treatment information)”.
- FIG. 7 is a first diagram showing a processing flow of the nursing support apparatus 1. Preprocessing of the nursing support device 1 will be described with reference to FIG. 7.
- the nursing support device 1 acquires the nursing information recorded in the electronic medical chart database and the nursing information previously stored in the own device (step S101).
- the acquired nursing information includes a patient ID, a nurse ID, a nursing type, a SOAP type, a recorded content type, input information and the like.
- the input information is information that the user has previously input by voice using the terminal 2.
- the voice input is converted into characters.
- the input information converted into characters is recorded as nursing information in the electronic medical chart database, the database 104, or the like.
- the input information may be information that has been input as characters in the terminal 2.
- the model generation unit 12 of the nursing support device 1 acquires the nursing information recorded in the past. Further, for example, the database 104 is provided with, for each nursing type, each word that constitutes the input information included in the nursing information in advance, the class of the recorded content type or the SOAP type indicated by the input information, and the character string representing the class. It is included in the nursing information.
- the nursing support device 1 generates a record type determination model.
- the recording type determination model includes a content determination model and a SOAP determination model.
- the model generation unit 12 of the nursing support device 1 specifies the nursing information belonging to the unprocessed nursing type from all the acquired nursing information, and acquires the input information included in these nursing information (step S102).
- the model generation unit 12 also acquires information on a pair of all input information and a recorded content type corresponding to the input information from the nursing information acquired in step S102 that belongs to the unprocessed nursing type.
- the model generation unit 12 determines that the input information included in the newly acquired nursing information is based on the information of the pair of the input information and the record content type corresponding to the input information, the plurality of record content type classes.
- a content determination model for determining which one of them belongs is generated (step S103). More specifically, the model generation unit 12 converts the input information included in the newly acquired nursing information into a vector in which a plurality of words included in the input information are represented by orientations and sizes in a plurality of dimensions. Then, the model generation unit 12 receives a vector obtained by converting the input information based on the words forming the input information included in the newly acquired nursing information as an input, and as a result, one of the recorded content types Generate a content judgment model for outputting.
- the content judgment model is a model for judging the recorded content type class in which the word appears biasedly and frequently among the recorded content type classes based on each word obtained from the analysis result of the sentence based on the input information. is there.
- the content determination model is a model for determining a recording content type class in which a vector is biased and frequently appears based on a vector indicating the word when the word is expressed by some vector.
- the model generation unit 12 generates a content determination model table (FIG. 5) indicating the identification information of the content determination model according to the nursing type and records it in the database 104 (step S104).
- the model generation unit 12 also selects all the input information from the nursing information acquired in step S102 that belongs to the unprocessed nursing type, and any SOAP type of S / O / A / P corresponding to the input information, Get information about a pair of. Then, the model generation unit 12 determines that the input information included in the newly acquired nursing information is S / O / A of the SOAP type based on the pair information of the input information and the SOAP type corresponding to the input information. A SOAP determination model for determining which of the plurality of SOAP types / P belongs to is generated (step S105).
- the model generation unit 12 converts the input information included in the newly acquired nursing information into a vector in which a plurality of words included in the input information are represented by orientations and sizes in a plurality of dimensions. Then, the model generation unit 12 inputs a vector obtained by converting the input information based on the words that form the input information included in the newly acquired nursing information, and as a result, selects one of the SOAP types. A SOAP judgment model for output is generated.
- the model generation unit 12 generates a SOAP determination model table (FIG. 6) indicating the identification information of the SOAP determination model according to the nursing type and records it in the database 104 (step S106). The model generation unit 12 determines whether there is unprocessed nursing information of the nursing type (step S107).
- the model generation unit 12 repeats the processing from step S102.
- the pre-processing of the nursing support apparatus 1 is completed by the above processing.
- the content determination model and the SOAP determination model may be held by the nursing support device 1 in advance.
- the content determination model and the SOAP determination model may be generated using an algorithm of a general discriminator such as Support Vector Machine.
- FIG. 8 is a second diagram showing the processing flow of the nursing support apparatus 1.
- the nursing support apparatus 1 accepts input of input information.
- the nursing support device 1 also generates and outputs nursing coping alerts based on the patient's nursing information and nursing coping rules.
- a user such as a nurse or a doctor activates the nursing support application program recorded in the terminal 2.
- the terminal 2 outputs a UI (User Interface) screen for nursing support work to the display of the terminal 2, inputs character information using the UI screen, and acquires voice input based on the operation of the UI screen.
- the user has information (S) directly obtained from the patient, information (O) obtained from the physical examination and examination by the nurse, information (A) about the patient's evaluation, and information (P) indicating the plan and treatment performed. Any one or a plurality of them are input using the terminal 2 at an appropriate timing.
- the input may be performed by voice or may be performed by character input using the input function provided in the terminal 2.
- the user uses the UI screen to specify the necessary patient designation information such as the patient ID and the nurse ID.
- necessary patient designation information such as the patient ID or the nurse ID may be input by voice.
- the terminal 2 transmits the patient designation information and the input information to the nursing support device 1.
- the terminal 2 may have a function of automatically starting an operation by the nursing support application program based on communication with a predetermined communication device. For example, the terminal 2 receives a signal transmitted from a signal transmission device that is one mode of a communication device located beside a patient's bed. When the received signal is a predetermined signal, the terminal 2 may automatically start the nursing support application program and have each function of the terminal 2. In this case, as an example, the terminal 2 acquires the voice of the user such as a nurse or doctor and the voice of the patient from the microphone based on the user's voice acquisition start and voice acquisition end operations. The terminal 2 may transmit the input information and the patient designation information to the nursing support apparatus 1 by using the voice information as the input information.
- the terminal 2 omits the user's activation operation and acquires a voice based on the start of voice acquisition and transmits the voice to the nursing support apparatus 1. Therefore, the user inputs the input information promptly during the nursing work and without the user's effort. can do.
- the terminal 2 may automatically acquire the voice of the user or the patient without the operation input for starting the voice acquisition.
- the signal transmission device described above may transmit the patient ID included in the patient designation information in a signal, and the terminal 2 that receives the signal may detect the patient ID included in the signal.
- the acquisition unit 13 acquires the input information and the patient designation information received by the nursing support apparatus 1 (step S201).
- the acquisition unit 13 outputs the input information to the type determination unit 14.
- the type determination unit 14 reads and specifies the nursing type of the patient recorded in advance in the database 104 in association with the patient ID included in the patient designation information (step S202). This nursing type is determined according to patient attributes such as sex, age, and illness of the patient.
- the type determination unit 14 identifies the content determination model based on the information recorded in the content determination model table (FIG. 5) and the patient's nursing type.
- the type determination unit 14 acquires the model formula of the content determination model from the storage unit or the like.
- the type determination unit 14 morphologically analyzes the input information, and inputs the input information vector generated from the obtained word and its frequency into the content determination model. As a result of the input, the type determination unit 14 identifies the recorded content type of the input information by the determination process using the content determination model (step S203).
- the type determination unit 14 also identifies the SOAP determination model based on the information recorded in the SOAP determination model table and the patient's nursing type.
- the type determination unit 14 acquires the model formula of the SOAP determination model from the storage unit or the like.
- the type determination unit 14 morphologically analyzes the input information and inputs the input information vector generated from the obtained word and its frequency into the SOAP determination model. As a result of the input, the type determination unit 14 identifies the SOAP type of the input information by the determination process using the SOAP determination model (step S204).
- the type determination unit 14 outputs the recorded content type and the SOAP type of the input information acquired in step S201 to the recording unit 15.
- the acquisition unit 13 also outputs the patient designation information, the input information, the nursing type, and the recorded content type to the recording unit 15.
- the recording unit 15 records, in the nursing information table, nursing information associated with the patient ID, the nurse ID, the nursing type, the SOAP type, the recorded content type, and the input information included in the setting type (step S205).
- the acquisition unit 13 and the type determination unit 14 repeat the above processing each time the nursing support device 1 receives the input information received from the terminal 2.
- the control unit 11 determines whether to end the processing of recording nursing information (step S206), and repeats the processing of recording nursing information until it is determined to end.
- the input information of the patient to be hospitalized is accumulated in the nursing information table 4 as nursing information.
- the nursing support apparatus 1 starts a process of generating a coping alert regarding nursing based on the nursing information and the nursing coping rule and outputting the coping alert to a predetermined output destination apparatus.
- the coping alert is an alert that is issued to a user such as a nurse or a doctor, and is an alert that prompts some treatment (coping) for the patient.
- the coping alert includes, for example, a warning by a nurse such as a nurse about forgetting to prescribe a medicine to an inpatient, or cancellation of coping when the interval from the last administration time of a medicine to the administration time of the next medicine is less than a predetermined time. It may be a warning or the like prompting.
- the coping alert generation unit 16 includes specific information in the nursing information and the nursing coping rule indicates drug information
- the registration time at which the nursing information is recorded and the next nursing of the drug information It is an example of a mode in which a coping alert is generated when the information registration time is within a predetermined time.
- the nursing support device 1 performs the following processing in parallel with the above-described processing of recording nursing information.
- FIG. 9 is a third diagram showing the processing flow of the nursing support apparatus 1.
- the acquisition unit of the nursing support apparatus 1 outputs the patient designation information and the input information acquired in step S201 to the coping alert generation unit 16.
- the handling alert generation unit 16 specifies the patient ID from the patient designation information (step S301).
- the coping alert generation unit 16 acquires the nursing type stored in advance in the database 104 in association with the patient ID.
- the nursing type is indicated by a number or ID that specifies the type of treatment or care required for the patient based on the patient's disease, the condition of the patient including the disease, the length of hospital stay, and the like.
- the handling alert generation unit 16 reads a nursing handling rule stored in advance in the database 104 in association with the nursing type (step S302).
- the coping alert generation unit 16 preliminarily uses one of the recorded content type and the SOAP type in the database 104 based on the recorded content type specified in step S202 and the SOAP type specified in step S203, or
- the nursing care rule stored in advance may be read in association with the combination of both types.
- the nursing care rule may be information indicating a nursing care rule according to one or more of the nursing type, the recorded content type, or the SOAP type.
- the coping alert generation unit 16 When the acquired input information is the input information specified by the nursing care rule, the coping alert generation unit 16 generates a predetermined coping alert specified by the nursing care rule (step S303). The handling alert generation unit 16 outputs the generated handling alert to the handling alert output unit. The coping alert output unit 17 identifies the terminal 2 that is the output destination based on the nurse ID included in the patient designation information acquired in step S201 (step S304). The coping alert output unit 17 transmits a coping alert to the specified terminal 2 (step S305).
- the terminal 2 communicates with the nursing support apparatus 1 by the operation of the nursing support application program and outputs the UI image generated by the UI image generation unit 19 of the nursing support apparatus 1 to the display.
- the terminal 2 Upon receiving the coping alert, the terminal 2 updates the UI image based on each information included in the coping alert. Thereby, the information of the coping alert is notified to the user such as a nurse or a doctor.
- FIG. 10 is a diagram showing a first example of the UI image.
- the UI image generation unit 19 of the nursing support apparatus 1 generates a UI image as shown in FIG. 10 as an example and outputs it to the terminal 2.
- the UI image shown in FIG. 10 is an image transmitted by the nursing support apparatus 1 to the terminal 2 having a relatively large display size that can be arranged on a desk such as a PC.
- the UI image may include at least a list display area 11a of patients to be cared for by the user who uses the terminal 2 and a nursing information display area 11b that displays nursing information of a designated patient among these patients.
- FIG. 11 is a diagram showing a second example of the UI image.
- the coping alert generation unit 16 uses a nursing coping rule that regulates output of an alert when the input information indicates a predetermined recording content type or SOAP type when the coping alert is generated in step S303 described above.
- the coping alert generation unit 16 acquires the determination result of the recorded content type of the input information and the determination result of the SOAP type from the type determination unit 14.
- the coping alert generation unit 16 generates a predetermined coping alert described in the nursing coping rule when both the acquired recording content type and the SOAP type match each type included in the nursing coping rule.
- the character string representing the class of the recorded content type is “medicine”
- the specific drug name is included in the input information
- the SOAP type is “P (treatment information)”.
- the coping alert generation unit 16 determines whether the record content type is “medicine” based on the input information, the specific drug name is included in the input information, and the SOAP type is “P (treatment information)”. To judge.
- the coping alert generation unit 16 sets the recorded content type to “medicine”, includes the specific drug name (“loxonin” in the example of FIG. 11) in the input information, and the SOAP type to “P ( Treatment information) ”, the prescription time included in the input information is detected. Based on the detected prescription time, the coping alert generation unit 16 generates a coping alert including a character string urging the body temperature measurement (patient measurement) to be performed 2 hours (predetermined time) after the prescription time. Then, the coping alert output unit 17 identifies the terminal 2 based on the nursing ID included in the patient designation information received from the terminal 2 together with the input information, and two hours after the time when the terminal 2 is registered as the nursing information of the input information.
- the input information includes a specific drug name
- the SOAP type is “P (treatment information)” as the nursing care rule
- the coping alert generation unit 16 determines that the record content type is “medicine” based on the input information, the specific drug name is included in the input information, and the SOAP type is “P (treatment information)”. Then, after 3 hours, a coping alert including a character string urging the temperature measurement to be performed is generated.
- the coping alert output unit 17 identifies the terminal 2 based on the nursing ID included in the patient designation information received from the terminal 2 together with the input information, and 3 hours after the time when the terminal 2 is registered as the nursing information of the input information. , Send a coping alert containing a string that prompts you to take a temperature measurement.
- the terminal 2 When the terminal 2 receives the coping alert, the terminal 2 generates and outputs a character string (A1) in the UI image on the display of the terminal 2 (FIG. 11) that prompts the body temperature measurement included in the coping alert.
- a user such as a nurse can perform body temperature measurement after a predetermined time has elapsed after medication without forgetting.
- the processing of the coping alert generation unit 16 identifies an example of the treatment included in the nursing information, and uses a nursing coping rule indicating a predetermined treatment corresponding to the treatment to generate a coping alert that prompts the predetermined treatment. Is.
- the predetermined treatment may be a future treatment.
- the nursing support apparatus 1 may change the size and the arrangement of the display information, generate a UI image to be transmitted to the mobile terminal 2 such as a smartphone, and transmit the UI image to the terminal 2.
- the coping alert generation unit 16 not only generates the coping alert at the timing immediately after the input information is acquired, but also monitors the nursing information at all times and determines that the coping alert is generated based on the nursing information at the timing. May be generated. For example, the coping alert generation unit 16 reads the nursing information as the nursing information is accumulated and identifies the patient ID of the patient included in the nursing information. The coping alert generation unit 16 selects the patient ID of the first patient and reads the chart information recorded in the database 104 in association with the patient ID.
- the coping alert generating unit 16 outputs the medical chart information to the severity calculating unit 20 and instructs the severity calculating unit 20 to calculate the severity of the patient.
- the severity calculating unit 20 calculates the severity of the patient based on the patient's medical record information.
- the medical record information includes medical treatment and care history for the patient.
- the treatment and care history includes a disease type that identifies the patient's disease, a nursing type that identifies the type of treatment or care required for the patient based on the patient's condition including the disease, etc.
- the information includes the mode of doctor's surgery based on the disease, the type of disease that occurred during the hospitalization period and the date of the same, the body temperature of each day during the hospitalization period of the patient, and status information such as the number of micturition and defecation.
- the treatment and care history may include other information.
- the degree-of-severity calculation unit 20 may calculate the degree of severity of the patient by inputting, for example, numerical values relating to treatment and care history included in the medical chart information to the degree-of-severity calculation formula.
- the severity calculating unit 20 compares the severity with a threshold value, and determines whether the severity level of the patient is in three levels, that is, “large”, “medium”, or “small”.
- the severity calculating unit 20 outputs the severity of the patient to the coping alert generating unit 16.
- the coping alert generation unit 16 generates coping alerts according to the severity level of the patient.
- the level of severity of the patient for example, the level of severity of the patient whose body temperature is higher than the control value instructed by the doctor or within 24 hours from the operation end time is “large”. Further, for example, in the case of a patient who has developed a disease during the hospitalization period, the level of severity of the patient is set to “medium”. In addition, the level of severity of the other patients is “small”.
- the coping alert is information that specifies the color of each patient in the patient list display area 11a in the UI image, for example. Further, this coping alert includes the patient ID.
- the coping alert output unit 17 transmits this coping alert to the terminal 2.
- the terminal 2 identifies the patient corresponding to the patient ID included in the coping alert from the patients displayed in the patient list display area 11a in the UI image.
- the terminal 2 determines the color to be displayed by the patient based on the information specifying the color included in the coping alert, and displays the attribute (name, patient ID, etc.) of the patient with the color.
- the patient's severity level is “high”, red (R)
- R red
- Y medium
- G Green
- the terminal 2 may display the level of severity of the patient indicated by the coping alert in a display mode other than color.
- the degree-of-severity calculation unit 20 may obtain medical record information of each patient from the database 104 at predetermined time intervals and calculate the degree of severity of each patient at each time interval. Then, when the UI image generation unit 19 acquires the severity of each patient calculated by the severity calculation unit 20 and generates a UI image displaying a list of patients as shown in FIG. 10 or FIG. Colors may be set and generated according to the degree of severity. Thereby, the nurse who confirms the UI image transmitted to the terminal 2 can grasp the severity of the patient at a glance.
- the coping alert generation unit 16 may generate a coping alert urging the predetermined treatment by using the nursing coping rule indicating the predetermined treatment corresponding to the biological information of the patient included in the nursing information. For example, the coping alert generation unit 16 reads the nursing information as the nursing information is accumulated and identifies the patient ID of the patient included in the nursing information. The coping alert generation unit 16 selects the patient ID of the first patient and reads the chart information recorded in the database 104 in association with the patient ID. In addition, the coping alert generation unit 16 acquires the nursing type recorded in the database 104 in association with the patient ID, and acquires the nursing coping rule associated with the nursing type from the database 104.
- the nursing coping rule specifies that, for example, when the body temperature is equal to or higher than a predetermined threshold value, a character string urging a user such as a nurse to perform cooling for lowering the body temperature of the patient is transmitted. More specifically, as a specific example of this nursing coping rule, the doctor's instruction when the body temperature rises above the threshold is described in the medical record information, and when the body temperature of the patient rises above the threshold, A case will be described in which it is specified to transmit a character string that notifies a user such as a nurse of information indicating a cooling instruction. In this case, the coping alert generation unit 16 acquires the biometric information of the patient based on the patient chart information.
- the coping alert generation unit 16 acquires, for example, the body temperature of the patient measured during a predetermined period included in the medical record information.
- the coping alert generation unit 16 generates a coping alert including a character string urging to perform cooling when the body temperature rises above a predetermined threshold value for a predetermined period based on the change in the body temperature.
- the coping alert output unit 17 also sends a coping alert to the terminal 2.
- the terminal 2 receives the coping alert, the terminal 2 outputs a character string urging the UI image (FIG. 11) on the display of the terminal 2 to perform the cooling included in the coping alert.
- the user such as a nurse performs the cooling treatment according to the instruction based on the instruction received in advance.
- a user such as a nurse can notice the cooling treatment when the body temperature of the patient rises and execute the cooling treatment at an early stage.
- the coping alert generation unit 16 may generate a coping alert that prompts a predetermined treatment when the input information matches the nursing coping rule.
- the doctor's instruction when the body temperature rises above the threshold is described in the chart information, and when the patient's body temperature rises above the threshold, the doctor's instruction in the chart information
- the coping alert generation unit 16 acquires the threshold value of the increase in body temperature included in the medical record information and the doctor's instruction information.
- the coping alert generation unit 16 includes a character string of doctor's instruction information when the body temperature rises above a threshold value for a predetermined period based on the change in the body temperature of the patient based on the input information included in the nursing information. Generate a response alert.
- the coping alert output unit 17 also sends a coping alert to the terminal 2.
- the terminal 2 Upon receiving this coping alert, the terminal 2 outputs a character string indicating the doctor's instruction information on the UI image (FIG. 11) on the display of the terminal 2. This allows a user such as a nurse to early perform a procedure in accordance with a doctor's instruction when the body temperature of the patient rises above a threshold value.
- FIG. 12 is a diagram showing a third example of the UI image.
- the UI image generation unit 19 of the nursing support device 1 generates a UI image g1 as shown in FIG. 12 and outputs it to the terminal 2.
- the UI image g1 shown in FIG. 12 is an image transmitted by the nursing support apparatus 1 to a portable terminal 2 such as a smartphone having a relatively small display size.
- the user of the terminal 2 has an operation button B1 for inputting input information (recording a voice memo), an operation button B2 for confirming the input information, and an information search button.
- An example in which the operation button B3 is displayed is shown.
- FIG. 13 is a diagram showing a fourth example of the UI image.
- the terminal 2 When the user of the terminal 2 presses the input information input button B1 in the UI image g1 shown in FIG. 12, the terminal 2 outputs the UI image g2 shown in FIG. When the terminal 2 outputs the UI image g2, it waits for voice recording.
- a start button B4 is displayed on the UI image g2 as shown in FIG.
- the recording function of the terminal 2 acquires a voice, which is one mode of input information, via the microphone.
- the terminal 2 displays a stop (STOP) button B5 on the UI image g2 instead of the start button B4.
- STOP stop
- the terminal 2 stops the recording function.
- the terminal 2 may convert the acquired voice into characters and output the converted voice to the input information display area 14A of the UI image g2.
- An input information upload button B6 is displayed on the UI image g2. The user presses the upload button B6. Then, the terminal 2 transmits the character information obtained by converting the input voice to the nursing support device 1 as the input information.
- FIG. 14 is a diagram showing a fifth example of the UI image.
- the terminal 2 displays the patient selection list.
- the user selects the name of the desired patient in the patient selection list.
- the terminal 2 outputs the UI image g3 shown in FIG.
- a list display area 15A of input information, a patient information display area 15B, an update button B7, and the like are displayed on the UI image g3.
- the terminal 2 displays the name of the patient designated by the user in the patient information display area 15B.
- the terminal 2 detects the selection of the patient's name by the user, the terminal 2 sends a nursing information list request including the patient ID of the patient to the nursing support apparatus 1.
- the nursing support device 1 receives the nursing information list request.
- the UI image generation unit 19 acquires the nursing information list request received by the nursing support apparatus 1.
- the UI image generation unit 19 acquires the patient ID from the nursing information list request.
- the UI image generation unit 19 acquires at least the input information of the nursing information recorded in the database 104 in association with the patient ID.
- the UI image generation unit 19 generates a nursing information list including the acquired input information and transmits it to the terminal 2.
- the UI image generation unit 19 may generate a nursing information list including only predetermined input information among the input information indicated by the nursing information acquired based on the patient ID.
- the UI image generation unit 19 may generate a nursing information list including only input information recorded in a time range from the current time to a predetermined time before.
- each input information of the nursing information is recorded in the database 104 with an importance flag attached, and a nursing information list including only the input information with the importance flag attached may be generated.
- the terminal 2 displays one or more past input information items included in the nursing information list in the list display area 15A.
- the user can browse the input information input in the past for a predetermined patient, and can grasp the past nursing situation for the patient.
- the nursing status can be grasped instantly. You can Even if the patient is not the patient in charge, the user can promptly and appropriately perform appropriate nursing care based on the grasped information.
- the terminal 2 may perform a voice output process of reading aloud the characters of the input information displayed in the input information list display area 15A.
- the user can instruct the terminal 2 to retransmit the nursing information list request by pressing the update button B7. That is, the terminal 2 that has detected the press of the update button B7 transmits a nursing information list request to the nursing support apparatus 1.
- the subsequent processing is the same as the above processing.
- FIG. 15 is a diagram showing a sixth example of the UI image.
- the terminal 2 displays the displayed patient selection list. The user selects the name of the desired patient in the patient selection list. Then, the terminal 2 outputs the UI image g4 shown in FIG.
- the UI image g4 includes a search content input field 16A, a search result display field 16B, a detailed display field 16C, a voice input stop button B8, a search button B9, a reading button B10, a stop button B11, and the like.
- the terminal 2 immediately after the UI image g4 is displayed, the terminal 2 turns on the recording function and automatically acquires a voice, which is one aspect of the input information, via the microphone.
- the terminal 2 analyzes the voice, converts it into character information, and outputs it to the search content input field 16A.
- the terminal 2 may directly acquire the character information by the user's operation of the input means and output it to the search content input field 16A.
- the terminal 2 transmits a search request including the character information included in the search content and the patient ID of the selected patient to the nursing support apparatus 1.
- the nursing support device 1 receives the search request.
- the nursing support information output unit 18 acquires the search request.
- the nursing support information output unit 18 acquires the patient ID included in the search request and the character information of the search content.
- the search content may include a recorded content type, a SOAP type, a word that specifies input information, and the like.
- the nursing support information output unit 18 is linked with the patient ID and searches for and acquires nursing information including character information of the search content. Thereby, the nursing support information output unit 18 can acquire the nursing information that matches the recorded content type, the SOAP type, the word identifying the input information, and the like from the nursing information of the patient desired by the user.
- the nursing support information output unit 18 transmits the search result including at least the input information included in the acquired nursing information to the terminal 2.
- the search results may include all records (nurse ID, nursing type, SOAP type, recorded content type) associated with the input information recorded as nursing information.
- the processing of the nursing support information output unit 18 described above is based on the acquisition of the patient's input based on the acquisition of the search request (designated information) designating the patient identifier and the past input information related to the patient from the output destination device (terminal). It is an example of the aspect of the process which outputs the nursing support information relevant to information to an output destination apparatus.
- the terminal 2 outputs the input information included in the search result to the search result display field 16B. Further, the terminal 2 outputs information (nurse ID, nursing type, SOAP type, recorded content type) other than the input information included in the search result to the detailed display field 16C.
- the terminal 2 detects the pressing operation of the reading button B10, the terminal 2 reads the character displayed in the search result display field 16B and outputs the read voice from the speaker.
- a user such as a nurse can listen to past nursing information based on search contents while performing hands-free nursing work.
- the stop button B11 the terminal 2 that detects the operation stops the reading process.
- FIG. 16 is a diagram showing a nursing support device 1 according to another embodiment.
- the nursing support device 1 includes at least a coping alert generation unit 16 and a coping alert output unit 17.
- the coping alert generation unit 16 generates a coping alert regarding nursing based on the nursing information of the patient and the nursing coping rule.
- the coping alert output unit 17 outputs a coping alert to the output destination device related to the patient's caregiver.
- the above-mentioned nursing support device 1 has a computer system inside.
- the process of each process described above is stored in a computer readable recording medium in the form of a program, and the above process is performed by the computer reading and executing the program.
- the above program may be for realizing some of the functions described above. Further, the above program may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
- difference file difference program
- the present invention may be applied to a nursing support device, a nursing support method, and a recording medium.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Pathology (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
看護支援装置は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する対処アラート生成部と、前記患者の看護者に関する出力先装置に前記対処アラートを出力する対処アラート出力部と、を備える。
Description
本発明は、看護支援装置、看護支援方法、記録媒体に関する。
患者に対する看護業務の中で看護情報を記録する作業は非常に重要である。看護に関する重要事項をもれなく記録することが求められる。ここで、看護情報とは、患者に対する看護業務の中で、患者の状態や患者への看護内容、患者の状態の変化など、患者を看護する上で、看護師が理解しておくべき情報全般を指す。患者の看護に携わる複数の看護師は、看護情報を確認することで、患者の状態を理解し、その理解に基づいて患者に対して適切な看護を行うことができる。
ここで看護情報に関する技術が特許文献1~4に開示されている。
特許文献1には、観察対象者について蓄積された観察結果から、観察対象者の状態を容易に把握できるようにする技術が開示されている。
特許文献2には、看護師が特定の患者について何を行う必要があるかを決定するだけでなく、患者のグループについて、特定の時間又は特定の時間範囲に何を行う必要があるかを決定することを可能にする技術が開示されている。
特許文献3には、患者の健康管理要員による行動を要求する情報を表示する技術が開示されている。
特許文献4には、看護師が患者に対して処置を実施する際に有用な知識を提示する技術が開示されている。
特許文献1には、観察対象者について蓄積された観察結果から、観察対象者の状態を容易に把握できるようにする技術が開示されている。
特許文献2には、看護師が特定の患者について何を行う必要があるかを決定するだけでなく、患者のグループについて、特定の時間又は特定の時間範囲に何を行う必要があるかを決定することを可能にする技術が開示されている。
特許文献3には、患者の健康管理要員による行動を要求する情報を表示する技術が開示されている。
特許文献4には、看護師が患者に対して処置を実施する際に有用な知識を提示する技術が開示されている。
ところで上述のような看護情報は十分に活用されていない場合が多く、看護情報を活用して看護者の患者への対処のための情報を効率よく看護師等のユーザに通知する技術が求められている。
この発明の目的の一例は、上述の課題を解決する看護支援装置、看護支援方法、記録媒体を提供することである。
本発明の第1の態様によれば、看護支援装置は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する対処アラート生成部と、前記患者の看護者に関する出力先装置に前記対処アラートを出力する対処アラート出力部と、を備える。
本発明の第2の態様によれば、看護支援方法は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成し、前記患者の看護者に関する出力先装置に前記対処アラートを出力することを含む。
本発明の第3の態様によれば、記録媒体は、コンピュータに、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成し、前記患者の看護者に関する出力先装置に前記対処アラートを出力する、ことを実行させるプログラムを記憶する。
本発明の実施形態によれば、看護情報を活用して看護者の患者への対処のための情報を効率よくユーザに通知する看護支援装置を提供することができる。
以下、本発明の一実施形態による看護支援装置1を図面を参照して説明する。
図1は本実施形態による看護支援装置1を有する看護支援システム100の概要を示す。
看護支援装置1は病院等に設置される。看護支援装置1は病院の外部に設置されてもよい。看護支援装置1はスマートフォンなどの端末2と通信接続される。看護支援装置1と端末2とにより看護支援システム100が構成される。端末2は例えば看護師や医師が所持する。端末2はスマートフォンなどの携帯端末に代えてPC等であってもよい。
図1は本実施形態による看護支援装置1を有する看護支援システム100の概要を示す。
看護支援装置1は病院等に設置される。看護支援装置1は病院の外部に設置されてもよい。看護支援装置1はスマートフォンなどの端末2と通信接続される。看護支援装置1と端末2とにより看護支援システム100が構成される。端末2は例えば看護師や医師が所持する。端末2はスマートフォンなどの携帯端末に代えてPC等であってもよい。
図2は看護支援装置1のハードウェア構成を示す図である。
図2が示すように看護支援装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
図2が示すように看護支援装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
図3は看護支援装置1の機能ブロック図である。
看護支援装置1は看護支援プログラムを実行する。これにより看護支援装置1には、制御部11、モデル生成部12、取得部13、種別判定部14、記録部15、対処アラート生成部16、対処アラート出力部17、看護支援情報出力部18、UI画像生成部19、重症度合算出部20の各機能が備えられる。
看護支援装置1は看護支援プログラムを実行する。これにより看護支援装置1には、制御部11、モデル生成部12、取得部13、種別判定部14、記録部15、対処アラート生成部16、対処アラート出力部17、看護支援情報出力部18、UI画像生成部19、重症度合算出部20の各機能が備えられる。
制御部11は他の機能部を制御する。
モデル生成部12は、看護種別が一致する複数の患者の過去の看護情報に基づいて看護種別ごとの記録種別を特定する記録種別判定モデルを生成する。記録種別判定モデルには内容判定モデルやSOAP判定モデルがあるが、これらの詳細な説明は後述する。
取得部13は、端末2から受信した入力情報を取得する。
種別判定部14は、端末2から受信した入力情報の記録種別を少なくとも判定する。
記録部15は、少なくとも記録種別に紐づけた入力情報を看護情報として記録する。
対処アラート生成部16は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する。
対処アラート出力部17は、患者の看護者に関する出力先装置に対処アラートを出力する。本実施形態において出力先装置は端末2である。
看護支援情報出力部18は、患者の識別子とその患者に関する過去の入力情報とを指定する指定情報の端末2からの取得に基づいて、患者の入力情報に関連する看護支援情報を端末2へ出力する。
UI画像生成部19は端末2に出力するUI画像を生成する。
重症度合算出部20は患者の重症度合を算出する。
モデル生成部12は、看護種別が一致する複数の患者の過去の看護情報に基づいて看護種別ごとの記録種別を特定する記録種別判定モデルを生成する。記録種別判定モデルには内容判定モデルやSOAP判定モデルがあるが、これらの詳細な説明は後述する。
取得部13は、端末2から受信した入力情報を取得する。
種別判定部14は、端末2から受信した入力情報の記録種別を少なくとも判定する。
記録部15は、少なくとも記録種別に紐づけた入力情報を看護情報として記録する。
対処アラート生成部16は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する。
対処アラート出力部17は、患者の看護者に関する出力先装置に対処アラートを出力する。本実施形態において出力先装置は端末2である。
看護支援情報出力部18は、患者の識別子とその患者に関する過去の入力情報とを指定する指定情報の端末2からの取得に基づいて、患者の入力情報に関連する看護支援情報を端末2へ出力する。
UI画像生成部19は端末2に出力するUI画像を生成する。
重症度合算出部20は患者の重症度合を算出する。
そして本実施形態による看護支援装置1は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成し、患者の看護者に関する端末2に対処アラートを出力する。
このような処理により看護支援装置1は、看護対処ルールに基づいて特定した看護情報のある患者に対して対処アラートを端末2へ送信することで、看護師や医師などのユーザに、患者への対処のための気づきを効率よく通知することができる。
このような処理により看護支援装置1は、看護対処ルールに基づいて特定した看護情報のある患者に対して対処アラートを端末2へ送信することで、看護師や医師などのユーザに、患者への対処のための気づきを効率よく通知することができる。
図4は看護支援装置1が記憶するデータ例(看護情報テーブル)を示す第一の図である。
看護支援装置1は、端末2から受信した入力情報の取得に基づいて患者ID、看護師ID、看護種別、SOAP種別、記録内容種別、入力情報などを紐づけた看護情報を、看護情報テーブルに記録する。看護情報テーブルはデータベース104に記録される。看護種別は一例として、「骨折」、「脳卒中」などの患者の疾患に応じた看護の種別を示す。看護種別は、患者の疾患に応じた看護の種別に加えて、患者の性別、年齢層などの患者属性ごとに異なる種別を示す情報であってよい。SOAP種別は入力情報が、“Subjective(主観的情報)”、“Objective(客観的情報)”、“Assessment(評価情報)”、“Plan(計画、治療情報)”の何れの種別であるかを特定する情報である。記録内容種別は、入力情報が患者のどのような状態を特定する情報である。入力情報は看護師や医師などのユーザによって端末2を介して入力された看護情報として記録すべき主要な情報である。なお看護情報には看護種別が含まれない場合もあってよい。
看護支援装置1は、端末2から受信した入力情報の取得に基づいて患者ID、看護師ID、看護種別、SOAP種別、記録内容種別、入力情報などを紐づけた看護情報を、看護情報テーブルに記録する。看護情報テーブルはデータベース104に記録される。看護種別は一例として、「骨折」、「脳卒中」などの患者の疾患に応じた看護の種別を示す。看護種別は、患者の疾患に応じた看護の種別に加えて、患者の性別、年齢層などの患者属性ごとに異なる種別を示す情報であってよい。SOAP種別は入力情報が、“Subjective(主観的情報)”、“Objective(客観的情報)”、“Assessment(評価情報)”、“Plan(計画、治療情報)”の何れの種別であるかを特定する情報である。記録内容種別は、入力情報が患者のどのような状態を特定する情報である。入力情報は看護師や医師などのユーザによって端末2を介して入力された看護情報として記録すべき主要な情報である。なお看護情報には看護種別が含まれない場合もあってよい。
SOAP種別と、記録内容種別を以下で説明する。
端末2から受信した入力情報は患者に関する情報である。この入力情報は看護情報として記録される。看護支援装置1は入力情報を看護情報として記録する際に入力情報の記録種別を特定する。本実施形態において記録種別はSOAP種別と内容種別とに大別される。記録内容種別は入力情報の内容を識別するための情報である。SOAPとは、“Subjective(主観的情報)”、“Objective(客観的情報)”、“Assessment(評価情報)”、“Plan(計画、治療情報)”の頭文字を取った文言であり、これらの情報の種別を示す。以下、“Subjective”の種別をSと表記する。“Objective”の種別をOと表記する。“Assessment”の種別をAと表記する。“Plan”の種別をPと表記する。“Subjective”は患者から直接得られた情報を示す。“Objective”は看護師による身体診察や検査から得られた情報を示す。“Assessment”は“Subjective”や“Objective”に基づく看護師や医師による評価の情報を示す。“Plan”は“Assesment”の結果として実施した計画や治療を示す。
端末2から受信した入力情報は患者に関する情報である。この入力情報は看護情報として記録される。看護支援装置1は入力情報を看護情報として記録する際に入力情報の記録種別を特定する。本実施形態において記録種別はSOAP種別と内容種別とに大別される。記録内容種別は入力情報の内容を識別するための情報である。SOAPとは、“Subjective(主観的情報)”、“Objective(客観的情報)”、“Assessment(評価情報)”、“Plan(計画、治療情報)”の頭文字を取った文言であり、これらの情報の種別を示す。以下、“Subjective”の種別をSと表記する。“Objective”の種別をOと表記する。“Assessment”の種別をAと表記する。“Plan”の種別をPと表記する。“Subjective”は患者から直接得られた情報を示す。“Objective”は看護師による身体診察や検査から得られた情報を示す。“Assessment”は“Subjective”や“Objective”に基づく看護師や医師による評価の情報を示す。“Plan”は“Assesment”の結果として実施した計画や治療を示す。
図5は看護支援装置1が記憶するデータ例(内容判定モデルテーブル)を示す第二の図である。
内容判定モデルは、看護支援装置1のモデル生成部12によって、複数の患者の過去の看護情報に基づいて生成される。内容判定モデルは、看護種別ごとに設けられる。内容判定モデルは、データベース104に記録される。内容判定モデルは記録内容種別を判定するためのモデルである。また看護支援装置1は看護種別に応じた内容判定モデルを特定するための内容判定モデルテーブルをデータベース104に記憶する。看護支援装置1はこの内容判定モデルテーブルにより看護種別に応じた内容判定モデルを特定し、その内容判定モデルを用いて入力情報の記録内容種別の判定を行う。看護情報に看護種別が含まれない場合には、看護支援装置1には一つの内容判定モデルが記録され、この内容判定モデルを用いて入力情報の記録内容種別の判定を行ってもよい。
内容判定モデルは、看護支援装置1のモデル生成部12によって、複数の患者の過去の看護情報に基づいて生成される。内容判定モデルは、看護種別ごとに設けられる。内容判定モデルは、データベース104に記録される。内容判定モデルは記録内容種別を判定するためのモデルである。また看護支援装置1は看護種別に応じた内容判定モデルを特定するための内容判定モデルテーブルをデータベース104に記憶する。看護支援装置1はこの内容判定モデルテーブルにより看護種別に応じた内容判定モデルを特定し、その内容判定モデルを用いて入力情報の記録内容種別の判定を行う。看護情報に看護種別が含まれない場合には、看護支援装置1には一つの内容判定モデルが記録され、この内容判定モデルを用いて入力情報の記録内容種別の判定を行ってもよい。
図6は看護支援装置1が記憶するデータ例(SOAP判定モデルテーブル)を示す第三の図である。
SOAP判定モデルは、看護支援装置1のモデル生成部12によって、複数の患者の過去の看護情報に基づいて生成される。SOAP判定モデルは、看護種別ごとに設けられる。SOAP判定モデルは、データベース104に記録する。また看護支援装置1は看護種別に応じたSOAP判定モデルを特定するためのSOAP判定モデルテーブルを記憶する。看護支援装置1はこのSOAP判定モデルテーブルにより看護種別に応じたSOAP判定モデルを特定し、そのSOAP判定モデルを用いて入力情報のSOAP種別の判定を行う。看護情報に看護種別が含まれない場合には、看護支援装置1には一つのSOAP判定モデルが記録され、このSOAP判定モデルを用いて入力情報の記録内容種別の判定を行ってもよい。例えば看護支援装置1はSOAP判定モデルを用いて、看護情報に含まれる入力情報が、上述した“Subjective(主観的情報)”、“Objective(客観的情報)”、“Assessment(評価情報)”、“Plan(計画、治療情報)”のいずれの記録内容種別であるかを判定する。
SOAP判定モデルは、看護支援装置1のモデル生成部12によって、複数の患者の過去の看護情報に基づいて生成される。SOAP判定モデルは、看護種別ごとに設けられる。SOAP判定モデルは、データベース104に記録する。また看護支援装置1は看護種別に応じたSOAP判定モデルを特定するためのSOAP判定モデルテーブルを記憶する。看護支援装置1はこのSOAP判定モデルテーブルにより看護種別に応じたSOAP判定モデルを特定し、そのSOAP判定モデルを用いて入力情報のSOAP種別の判定を行う。看護情報に看護種別が含まれない場合には、看護支援装置1には一つのSOAP判定モデルが記録され、このSOAP判定モデルを用いて入力情報の記録内容種別の判定を行ってもよい。例えば看護支援装置1はSOAP判定モデルを用いて、看護情報に含まれる入力情報が、上述した“Subjective(主観的情報)”、“Objective(客観的情報)”、“Assessment(評価情報)”、“Plan(計画、治療情報)”のいずれの記録内容種別であるかを判定する。
図7は看護支援装置1の処理フローを示す第一の図である。
図7を参照して看護支援装置1の事前処理を説明する。
看護支援装置1は、電子カルテデータベースに記録されている看護情報や、過去に自装置で記憶した看護情報を取得する(ステップS101)。これら取得した看護情報には、患者ID、看護師ID、看護種別、SOAP種別、記録内容種別、入力情報などが含まれる。入力情報は過去に端末2を利用してユーザが音声入力した情報である。その音声入力による音声が文字に変換される。文字に変換された入力情報が看護情報として電子カルテデータベースやデータベース104等に記録されている。入力情報は端末2において文字入力された情報であってもよい。看護支援装置1のモデル生成部12は、これらの過去に記録された看護情報を取得する。また例えば、データベース104には、看護種別ごとに、予めその看護情報に含まれる入力情報を構成する各単語や、入力情報が示す記録内容種別やSOAP種別のクラス、そのクラスを表す文字列が与えられて看護情報に含まれている。
図7を参照して看護支援装置1の事前処理を説明する。
看護支援装置1は、電子カルテデータベースに記録されている看護情報や、過去に自装置で記憶した看護情報を取得する(ステップS101)。これら取得した看護情報には、患者ID、看護師ID、看護種別、SOAP種別、記録内容種別、入力情報などが含まれる。入力情報は過去に端末2を利用してユーザが音声入力した情報である。その音声入力による音声が文字に変換される。文字に変換された入力情報が看護情報として電子カルテデータベースやデータベース104等に記録されている。入力情報は端末2において文字入力された情報であってもよい。看護支援装置1のモデル生成部12は、これらの過去に記録された看護情報を取得する。また例えば、データベース104には、看護種別ごとに、予めその看護情報に含まれる入力情報を構成する各単語や、入力情報が示す記録内容種別やSOAP種別のクラス、そのクラスを表す文字列が与えられて看護情報に含まれている。
そして看護支援装置1は、記録種別判定モデルを生成する。記録種別判定モデルには、内容判定モデルやSOAP判定モデルが含まれる。
看護支援装置1のモデル生成部12は取得した全ての看護情報の中から未処理の看護種別に属する看護情報を特定し、それら看護情報に含まれる入力情報を取得する(ステップS102)。モデル生成部12はまた、未処理の看護種別に属するステップS102で取得した看護情報から、全ての入力情報と、その入力情報に対応する記録内容種別、とのペアの情報を取得する。そして、モデル生成部12は、入力情報と、その入力情報に対応する記録内容種別とのペアの情報に基づいて、新たに取得した看護情報に含まれる入力情報が、複数の記録内容種別クラスのうちのどのクラスに属するかを判定する内容判定モデルを生成する(ステップS103)。より具体的には、モデル生成部12は、新たに取得した看護情報に含まれる入力情報を、その入力情報に含まれる複数の単語を複数次元における向きや大きさで表したベクトルに変換する。そして、モデル生成部12は、新たに取得した看護情報に含まれる入力情報を構成する単語に基づいてその入力情報を変換したベクトルを入力として、その結果、記録内容種別のうちのいずれかの種別を出力するための、内容判定モデルを生成する。内容判定モデルは、入力情報による文章の解析結果で得られた各単語に基づいて、その単語が記録内容種別クラスの中で、偏って高頻度に現れる記録内容種別クラスを判定するためのモデルである。内容判定モデルは、一例としては、単語を何らかのベクトルで表現した場合、その単語を示すベクトルに基づいて、そのベクトルが偏って高頻度に現れる記録内容種別クラスを判定するためのモデルである。モデル生成部12は看護種別に応じた内容判定モデルの識別情報を示す内容判定モデルテーブル(図5)を生成してデータベース104に記録する(ステップS104)。
看護支援装置1のモデル生成部12は取得した全ての看護情報の中から未処理の看護種別に属する看護情報を特定し、それら看護情報に含まれる入力情報を取得する(ステップS102)。モデル生成部12はまた、未処理の看護種別に属するステップS102で取得した看護情報から、全ての入力情報と、その入力情報に対応する記録内容種別、とのペアの情報を取得する。そして、モデル生成部12は、入力情報と、その入力情報に対応する記録内容種別とのペアの情報に基づいて、新たに取得した看護情報に含まれる入力情報が、複数の記録内容種別クラスのうちのどのクラスに属するかを判定する内容判定モデルを生成する(ステップS103)。より具体的には、モデル生成部12は、新たに取得した看護情報に含まれる入力情報を、その入力情報に含まれる複数の単語を複数次元における向きや大きさで表したベクトルに変換する。そして、モデル生成部12は、新たに取得した看護情報に含まれる入力情報を構成する単語に基づいてその入力情報を変換したベクトルを入力として、その結果、記録内容種別のうちのいずれかの種別を出力するための、内容判定モデルを生成する。内容判定モデルは、入力情報による文章の解析結果で得られた各単語に基づいて、その単語が記録内容種別クラスの中で、偏って高頻度に現れる記録内容種別クラスを判定するためのモデルである。内容判定モデルは、一例としては、単語を何らかのベクトルで表現した場合、その単語を示すベクトルに基づいて、そのベクトルが偏って高頻度に現れる記録内容種別クラスを判定するためのモデルである。モデル生成部12は看護種別に応じた内容判定モデルの識別情報を示す内容判定モデルテーブル(図5)を生成してデータベース104に記録する(ステップS104)。
モデル生成部12はまた、未処理の看護種別に属するステップS102で取得した看護情報から、全ての入力情報と、その入力情報に対応するS/O/A/PのいずれかのSOAP種別と、のペアの情報を取得する。そして、モデル生成部12は、入力情報と、その入力情報に対応するSOAP種別とのペアの情報に基づいて、新たに取得した看護情報に含まれる入力情報が、SOAP種別のS/O/A/Pの複数のSOAP種別のうちのどの種別に属するかを判定するSOAP判定モデルを生成する(ステップS105)。より具体的には、モデル生成部12は、新たに取得した看護情報に含まれる入力情報を、その入力情報に含まれる複数の単語を複数次元における向きや大きさで表したベクトルに変換する。そして、モデル生成部12は、新たに取得した看護情報に含まれる入力情報を構成する単語に基づいてその入力情報を変換したベクトルを入力として、その結果、SOAP種別のうちのいずれかの種別を出力するための、SOAP判定モデルを生成する。モデル生成部12は看護種別に応じたSOAP判定モデルの識別情報を示すSOAP判定モデルテーブル(図6)を生成してデータベース104に記録する(ステップS106)。モデル生成部12は未処理の看護種別の看護情報があるかを判定する(ステップS107)。モデル生成部12は未処理の看護種別の看護情報がある場合にはステップS102からの処理を繰り返す。
以上の処理により看護支援装置1の事前処理が終了する。なお、内容判定モデルやSOAP判定モデルは予め看護支援装置1が保持しておいてよい。それら内容判定モデルやSOAP判定モデルは、Support Vector Machineのような一般的な判別機のアルゴリズムを用いて生成されてよい。
以上の処理により看護支援装置1の事前処理が終了する。なお、内容判定モデルやSOAP判定モデルは予め看護支援装置1が保持しておいてよい。それら内容判定モデルやSOAP判定モデルは、Support Vector Machineのような一般的な判別機のアルゴリズムを用いて生成されてよい。
図8は看護支援装置1の処理フローを示す第二の図である。
上述のように内容判定モデルテーブル、SOAP判定モデルテーブルが生成された状態で、看護支援装置1は入力情報の入力を受け付ける。また看護支援装置1は患者の看護情報と看護対処ルールとに基づく看護の対処アラートの生成と出力の処理を行う。
上述のように内容判定モデルテーブル、SOAP判定モデルテーブルが生成された状態で、看護支援装置1は入力情報の入力を受け付ける。また看護支援装置1は患者の看護情報と看護対処ルールとに基づく看護の対処アラートの生成と出力の処理を行う。
まず看護師や医師等のユーザは端末2に記録されている看護支援アプリケーションプログラムを起動する。これにより端末2には看護支援業務のUI(User Interface)画面の端末2のディスプレイへの出力、そのUI画面を用いた文字情報の入力、そのUI画面の操作に基づいて入力された音声の取得、それら入力した情報の看護支援装置1への送信、看護支援装置1から受信した各種情報のUI画面への出力などを行う機能が備わる。
ユーザは患者から直接得られた情報(S)、看護師による身体診察や検査から得られた情報(O)、患者の評価の情報(A)、実施した計画や治療を示す情報(P)の何れか一つまたは複数を、適切なタイミングで端末2を用いて入力する。その入力は音声で行ってもよいし、端末2に備わる入力機能を用いて文字入力により入力してもよい。この時、ユーザは、患者IDや看護師IDなどの必要な患者指定情報を、UI画面を用いて指定する。またはこれら患者IDや看護師IDなどの必要な患者指定情報を音声入力してもよい。端末2は患者指定情報と入力情報を看護支援装置1へ送信する。
端末2は所定の通信装置との通信に基づいて看護支援アプリケーションプログラムによる動作を自動開始する機能を備えてよい。例えば端末2は、患者のベッド脇にある通信装置の一態様である信号発信装置から発信される信号を受信する。端末2は、受信した信号が所定の信号である場合に、看護支援アプリケーションプログラムを自動的に起動して、上記端末2の各機能を備えるようにしてよい。この場合、一例として端末2は、ユーザの音声取得開始と音声取得終了の操作等に基づいてマイクから看護師や医師等のユーザの音声と患者の音声を取得する。端末2は、その音声情報を入力情報として、その入力情報と患者指定情報とを看護支援装置1へ送信してよい。これにより端末2はユーザの起動操作を省略して音声取得開始に基づいて音声を取得し看護支援装置1へ送信するので、ユーザは看護の作業中に迅速にまたユーザの労力なく入力情報を入力することができる。端末2は、音声取得開始の操作入力なく、ユーザや患者の音声を自動取得するようにしてもよい。上述の信号発信装置は、患者指定情報のうちの患者IDを信号に含めて送信し、その信号を受信した端末2が、その信号に含まれる患者IDを検出してもよい。
取得部13は看護支援装置1の受信した入力情報と患者指定情報とを取得する(ステップS201)。取得部13は入力情報を種別判定部14へ出力する。種別判定部14は患者指定情報に含まれる患者IDに紐づいて予めデータベース104に記録されている患者の看護種別を読み取り特定する(ステップS202)。この看護種別は患者の性別、年齢、疾患、などの患者属性に応じて定められている。種別判定部14は内容判定モデルテーブル(図5)に記録されている情報と患者の看護種別とに基づいて、内容判定モデルを特定する。種別判定部14は内容判定モデルのモデル式を記憶部等から取得する。種別判定部14は入力情報を形態素解析し、得られた単語とその頻度とにより生成した入力情報ベクトルを内容判定モデルに入力する。種別判定部14はその入力の結果、内容判定モデルを用いた判定処理による入力情報の記録内容種別を特定する(ステップS203)。
種別判定部14はまた、SOAP判定モデルテーブルに記録されている情報と患者の看護種別とに基づいて、SOAP判定モデルを特定する。種別判定部14はSOAP判定モデルのモデル式を記憶部等から取得する。種別判定部14は入力情報を形態素解析し、得られた単語とその頻度とにより生成した入力情報ベクトルをSOAP判定モデルに入力する。種別判定部14はその入力の結果、SOAP判定モデルを用いた判定処理による入力情報のSOAP種別を特定する(ステップS204)。種別判定部14はステップS201で取得した入力情報の記録内容種別とSOAP種別とを記録部15へ出力する。
また取得部13は患者指定情報、入力情報、看護種別、記録内容種別を記録部15へ出力する。記録部15は看護情報テーブルに、設定種別に含まれる患者ID、看護師ID、看護種別、SOAP種別、記録内容種別、入力情報を紐づけた看護情報の記録を行う(ステップS205)。
取得部13、種別判定部14は、看護支援装置1が端末2から受信した入力情報を受信する度に、上記の処理を繰り返す。制御部11は看護情報の記録の処理を終了するかを判定し(ステップS206)、終了すると判定するまで看護情報の記録の処理を繰り返す。これにより看護情報テーブル4には入院する患者の入力情報が看護情報として蓄積する。
ある特定の看護情報が記録されると、看護支援装置1は、その看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成し、所定の出力先装置へ出力する処理を開始する。対処アラートは、看護師や医師等のユーザに対して発せられるアラートであり、患者に対する何らかの処置(対処)を促すアラートである。対処アラートには例えば、看護師等の看護者による入院患者に対する医薬品の処方忘れの警告や、医薬品の前回投与時刻から次の医薬品の投与時刻までの間隔が所定時間未満である場合などにおける対処中止の促す警告などであってもよい。この処理は、対処アラート生成部16が、看護情報に特定の情報が含まれ、看護対処ルールが医薬品情報を示す場合に、その看護情報が記録された登録時刻と、次のその医薬品情報の看護情報の登録時刻とが所定時間以内である場合に、対処アラートを生成する態様の一例である。看護支援装置1は上述の看護情報の記録の処理と並行して以下の処理を行う。
図9は看護支援装置1の処理フローを示す第三の図である。
看護支援装置1の取得部はステップS201で取得した患者指定情報と入力情報とを対処アラート生成部16へ出力する。対処アラート生成部16は患者指定情報から患者IDを特定する(ステップS301)。対処アラート生成部16は患者IDに紐づいて予めデータベース104に記憶する看護種別を取得する。看護種別は、患者の疾患、その疾患などを含む患者の状態に基づく患者に対する必要な治療やケアの種類、入院期間などを特定する番号やIDにより示す。対処アラート生成部16は看護種別に基づいて、予めデータベース104でその看護種別に紐づけて予め記憶する看護対処ルールを読み取る(ステップS302)。対処アラート生成部16は入力情報に基づいてステップS202で特定された記録内容種別や、ステップS203で特定されたSOAP種別に基づいて、予めデータベース104でその記録内容種別やSOAP種別の何れか一方または両方の種別の組み合わせに紐づいて予め記憶する看護対処ルールを読み取るようにしてもよい。看護対処ルールは、看護種別または記録内容種別またはSOAP種別の一つまたは何れか複数の種別に応じた看護対処のルールを示す情報であってよい。
看護支援装置1の取得部はステップS201で取得した患者指定情報と入力情報とを対処アラート生成部16へ出力する。対処アラート生成部16は患者指定情報から患者IDを特定する(ステップS301)。対処アラート生成部16は患者IDに紐づいて予めデータベース104に記憶する看護種別を取得する。看護種別は、患者の疾患、その疾患などを含む患者の状態に基づく患者に対する必要な治療やケアの種類、入院期間などを特定する番号やIDにより示す。対処アラート生成部16は看護種別に基づいて、予めデータベース104でその看護種別に紐づけて予め記憶する看護対処ルールを読み取る(ステップS302)。対処アラート生成部16は入力情報に基づいてステップS202で特定された記録内容種別や、ステップS203で特定されたSOAP種別に基づいて、予めデータベース104でその記録内容種別やSOAP種別の何れか一方または両方の種別の組み合わせに紐づいて予め記憶する看護対処ルールを読み取るようにしてもよい。看護対処ルールは、看護種別または記録内容種別またはSOAP種別の一つまたは何れか複数の種別に応じた看護対処のルールを示す情報であってよい。
対処アラート生成部16は取得した入力情報が看護対処ルールによって特定される入力情報である場合、その看護対処ルールによって特定される所定の対処アラートを生成する(ステップS303)。対処アラート生成部16は生成した対処アラートを対処アラート出力部へ出力する。対処アラート出力部17はステップS201で取得した患者指定情報に含まれる看護師IDに基づいて出力先となる端末2を特定する(ステップS304)。対処アラート出力部17は特定した端末2へ対処アラートを送信する(ステップS305)。
端末2は、看護支援アプリケーションプログラムによる動作により、看護支援装置1と通信接続し、看護支援装置1のUI画像生成部19の生成したUI画像をディスプレイに出力する。端末2は対処アラートを受信すると、対処アラートに含まれる各情報に基づいてUI画像を更新する。これにより対処アラートの情報が看護師や医師等のユーザに通知される。
図10はUI画像の第一の例を示す図である。
看護支援装置1のUI画像生成部19は一例として図10で示すようなUI画像を生成して端末2へ出力する。図10で示すUI画像は、看護支援装置1が、PCなどの卓上に配置できるディスプレイのサイズが比較的大きい端末2に送信する画像である。UI画像には端末2を利用するユーザがケアする患者の一覧表示領域11aと、それら患者のうち指定された患者の看護情報を表示する看護情報表示領域11bとが少なくとも含まれてよい。
看護支援装置1のUI画像生成部19は一例として図10で示すようなUI画像を生成して端末2へ出力する。図10で示すUI画像は、看護支援装置1が、PCなどの卓上に配置できるディスプレイのサイズが比較的大きい端末2に送信する画像である。UI画像には端末2を利用するユーザがケアする患者の一覧表示領域11aと、それら患者のうち指定された患者の看護情報を表示する看護情報表示領域11bとが少なくとも含まれてよい。
図11はUI画像の第二の例を示す図である。
対処アラート生成部16は、上述のステップS303における対処アラートの生成時に、入力情報が所定の記録内容種別、SOAP種別を示す場合にアラートを出力することが規定された看護対処ルールを用いる。この場合、対処アラート生成部16は、入力情報の記録内容種別の判定結果とSOAP種別の判定結果とを、種別判定部14から取得する。対処アラート生成部16は、取得した記録内容種別とSOAP種別の両方が、看護対処ルールに含まれる各種別に一致する場合、その看護対処ルールに記述される所定の対処アラートを生成する。
具体例として、看護対処ルールとして、記録内容種別のクラスを表す文字列が「医薬品」であり、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」である場合、その医薬品名が示す医薬品の処方時刻から2時間空けたのちに体温測定を実施するよう促す文字列を送信することが規定されている場合について説明する。この場合、対処アラート生成部16は、入力情報に基づいて記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」であるかを判定する。対処アラート生成部16は、入力情報に基づいて記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名(図11の例では「ロキソニン」)が含まれ、SOAP種別が「P(治療情報)」であると判定すると、その入力情報に含まれる処方時刻を検出する。対処アラート生成部16は検出した処方時刻に基づいて、その処方時刻の2時間(所定時間)後に、体温測定(患者の測定)を実施するよう促す文字列を含む対処アラートを生成する。そして対処アラート出力部17が、入力情報と共に端末2から受信した患者指定情報に含まれる看護IDに基づいて端末2を特定し、その端末2に入力情報の看護情報として登録した時刻から2時間後に、体温測定を実施するよう促す文字列を含む対処アラートを送信する。端末2は、この対処アラートを受信すると、端末2のディスプレイのUI画像(図11)に対処アラートに含まれる体温測定を実施するよう促す文字列(A1)を生成し、出力する。
対処アラート生成部16は、上述のステップS303における対処アラートの生成時に、入力情報が所定の記録内容種別、SOAP種別を示す場合にアラートを出力することが規定された看護対処ルールを用いる。この場合、対処アラート生成部16は、入力情報の記録内容種別の判定結果とSOAP種別の判定結果とを、種別判定部14から取得する。対処アラート生成部16は、取得した記録内容種別とSOAP種別の両方が、看護対処ルールに含まれる各種別に一致する場合、その看護対処ルールに記述される所定の対処アラートを生成する。
具体例として、看護対処ルールとして、記録内容種別のクラスを表す文字列が「医薬品」であり、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」である場合、その医薬品名が示す医薬品の処方時刻から2時間空けたのちに体温測定を実施するよう促す文字列を送信することが規定されている場合について説明する。この場合、対処アラート生成部16は、入力情報に基づいて記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」であるかを判定する。対処アラート生成部16は、入力情報に基づいて記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名(図11の例では「ロキソニン」)が含まれ、SOAP種別が「P(治療情報)」であると判定すると、その入力情報に含まれる処方時刻を検出する。対処アラート生成部16は検出した処方時刻に基づいて、その処方時刻の2時間(所定時間)後に、体温測定(患者の測定)を実施するよう促す文字列を含む対処アラートを生成する。そして対処アラート出力部17が、入力情報と共に端末2から受信した患者指定情報に含まれる看護IDに基づいて端末2を特定し、その端末2に入力情報の看護情報として登録した時刻から2時間後に、体温測定を実施するよう促す文字列を含む対処アラートを送信する。端末2は、この対処アラートを受信すると、端末2のディスプレイのUI画像(図11)に対処アラートに含まれる体温測定を実施するよう促す文字列(A1)を生成し、出力する。
他の具体例として、看護対処ルールとして、記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」である場合、その特定の医薬品の投与による治療(投薬)を行った3時間後に、体温測定を実施するよう促す文字列を送信することが規定されている場合について説明する。この場合、対処アラート生成部16は、入力情報に基づいて記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」と判定されると、3時間後に、体温測定を実施するよう促す文字列を含む対処アラートを生成する。対処アラート生成部16は看護情報に含まれる入力情報が、記録内容種別が「医薬品」で、入力情報の中に特定の医薬品名が含まれ、SOAP種別が「P(治療情報)」を示す場合でも、その看護情報の記録時刻から3時間経過する前に体温測定を実施した旨の入力情報が登録した場合には、対処アラートを生成しなくてよい。そして対処アラート出力部17が、入力情報と共に端末2から受信した患者指定情報に含まれる看護IDに基づいて端末2を特定し、その端末2に入力情報の看護情報として登録した時刻から3時間後に、体温測定を実施するよう促す文字列を含む対処アラートを送信する。端末2は、この対処アラートを受信すると、端末2のディスプレイのUI画像(図11)に対処アラートに含まれる体温測定を実施するよう促す文字列(A1)を生成し、出力する。これにより看護師等のユーザは、投薬後、所定時間経過後の体温測定を忘れることなく実施することができる。この対処アラート生成部16の処理は、看護情報に含まれる処置に関する情報を特定し、その処置に対応する所定処置を示す看護対処ルールを用いて、所定処置を促す対処アラートを生成する態様の一例である。所定処置は将来の処置であってよい。
図10、図11には、一例としてPCなどの卓上に配置できるディスプレイのサイズが比較的大きい端末2に送信されるUI画像を示した。しかしながら、看護支援装置1は、その大きさや表示情報の配置を変更して、スマートフォン等の携帯型の端末2に送信するUI画像を生成して、端末2に送信するようにしてもよい。
対処アラート生成部16は、入力情報を取得した直後のタイミングに対処アラートを生成するだけでなく、常時看護情報を監視してその看護情報に基づいて対処アラートを生成すると判定したタイミングで、対処アラートを生成してもよい。例えば対処アラート生成部16は、看護情報の蓄積に伴って、それら看護情報を読み取り、看護情報に含まれる患者の患者IDを特定する。対処アラート生成部16は一人目の患者の患者IDを選択し、その患者IDに紐づいてデータベース104に記録されているカルテ情報を読み取る。
対処アラート生成部16は重症度合算出部20にそのカルテ情報を出力すると共に患者の重症度合の算出を指示する。重症度合算出部20は、患者のカルテ情報に基づいて患者の重症度合を算出する。カルテ情報には、患者に対する治療およびケア履歴が含まれる。治療およびケア履歴には、患者の疾患を識別する疾患種別、その疾患などを含む患者の状態に基づき患者に対して必要な治療やケアの種類を入院期間の各日ごとに識別する看護種別、その疾患に基づく医師手術の態様、入院期間に併発した疾患種別とその併発日、患者の入院期間における各日の体温、排尿排便回数などの状態情報などが含まれる。治療およびケア履歴には、これら以外の情報が含まれてもよい。重症度合算出部20は、例えばこれらカルテ情報に含まれる治療や、ケア履歴に関する数値を重症度合算出式に入力して、患者の重症度合を算出してよい。重症度合算出部20は、重症度合と閾値とを比較して、患者の重症度合のレベルが3段階、すなわち、「大」,「中」、「小」の何れであるかを判定する。重症度合算出部20は患者の重症度合を対処アラート生成部16へ出力する。
対処アラート生成部16は患者の重症度合のレベルに応じた対処アラートを生成する。患者の重症度合のレベルは、例えば、その日の体温が、医師により指示されるコントロール値よりも高い患者や手術終了時刻から24時間以内の患者の重症度合のレベルを「大」とする。また例えば、入院期間中に疾患を併発した患者である場合にはその患者の重症度合のレベルを「中」とする。またそれ以外の患者の重症度合のレベルを「小」とする。対処アラートは、例えばUI画像中の患者の一覧表示領域11aにおいて患者一人一人の色を指定する情報である。またこの対処アラートには患者IDが含まれる。対処アラート出力部17はこの対処アラートを端末2へ送信する。すると端末2は、UI画像中の患者の一覧表示領域11aにおいて表示される患者のうち、対処アラートに含まれる患者IDに対応する患者を特定する。端末2は対処アラートに含まれる色を指定する情報に基づいて、その患者の表示する色を決定し、その色を付して患者の属性(氏名、患者IDなど)を表示する。一例としては、患者の重症度合のレベル「大」の場合は赤色(R)、患者の重症度合のレベル「中」の場合は黄色(Y)、患者の重症度合のレベル「小」の場合は緑色(G)が設定される。端末2は対処アラートが示す患者の重症度合のレベルを色以外の他の表示態様で表示してもよい。
重症度合算出部20は所定の時間間隔で各患者のカルテ情報をデータベース104から取得して、その時間間隔毎に各患者の重症度合を算出してよい。そしてUI画像生成部19が重症度合算出部20の算出した各患者の重症度合を取得し、図10や図11で示すような患者の一覧を表示するUI画像を生成する際に、各患者の重症度合に応じた色を設定して生成するようにしてよい。これにより端末2に送信されるUI画像を確認した看護師は患者の重症度合を一目で把握することができる。
対処アラート生成部16は、看護情報に含まれる患者の生体情報に対応する所定処置を示す看護対処ルールを用いて、所定処置を促す対処アラートを生成してもよい。
例えば対処アラート生成部16は、看護情報の蓄積に伴って、それら看護情報を読み取り、看護情報に含まれる患者の患者IDを特定する。対処アラート生成部16は一人目の患者の患者IDを選択し、その患者IDに紐づいてデータベース104に記録されているカルテ情報を読み取る。また対処アラート生成部16は、患者IDに紐づいてデータベース104に記録されて看護種別を取得し、その看護種別に紐づく看護対処ルールをデータベース104から取得する。看護対処ルールは、例えば体温が所定閾値以上である場合に、患者の体温を下げるためのクーリングを実施するよう看護師等のユーザに促す文字列を送信することが規定されているとする。より具体的には、この看護対処ルールの具体例として、カルテ情報に体温が閾値以上に上昇した場合の医師の指示が記載されており、患者の体温がその閾値以上上昇した場合に、医師によるクーリングの指示を示す情報を看護師等のユーザに通知する文字列を送信することが規定されている場合について説明する。この場合、対処アラート生成部16は患者のカルテ情報に基づいて患者の生体情報を取得する。より具体的には対処アラート生成部16は、例えばカルテ情報に含まれる所定期間に計測された患者の体温を取得する。対処アラート生成部16は、体温の変化に基づいて、所定期間において体温が所定閾値以上に上昇している場合、クーリングを実施するよう促す文字列を含む対処アラートを生成する。また対処アラート出力部17が対処アラートを端末2に送信する。端末2はこの対処アラートを受信すると端末2のディスプレイのUI画像(図11)に対処アラートに含まれるクーリングを実施するよう促す文字列を出力する。これにより看護師等のユーザは、予め受けている指示に基づいて、指示通りにクーリングの処置を実施する。これにより看護師等のユーザは、患者の体温が上昇した際のクーリングの処置を早期に気づいて実行することができる。
例えば対処アラート生成部16は、看護情報の蓄積に伴って、それら看護情報を読み取り、看護情報に含まれる患者の患者IDを特定する。対処アラート生成部16は一人目の患者の患者IDを選択し、その患者IDに紐づいてデータベース104に記録されているカルテ情報を読み取る。また対処アラート生成部16は、患者IDに紐づいてデータベース104に記録されて看護種別を取得し、その看護種別に紐づく看護対処ルールをデータベース104から取得する。看護対処ルールは、例えば体温が所定閾値以上である場合に、患者の体温を下げるためのクーリングを実施するよう看護師等のユーザに促す文字列を送信することが規定されているとする。より具体的には、この看護対処ルールの具体例として、カルテ情報に体温が閾値以上に上昇した場合の医師の指示が記載されており、患者の体温がその閾値以上上昇した場合に、医師によるクーリングの指示を示す情報を看護師等のユーザに通知する文字列を送信することが規定されている場合について説明する。この場合、対処アラート生成部16は患者のカルテ情報に基づいて患者の生体情報を取得する。より具体的には対処アラート生成部16は、例えばカルテ情報に含まれる所定期間に計測された患者の体温を取得する。対処アラート生成部16は、体温の変化に基づいて、所定期間において体温が所定閾値以上に上昇している場合、クーリングを実施するよう促す文字列を含む対処アラートを生成する。また対処アラート出力部17が対処アラートを端末2に送信する。端末2はこの対処アラートを受信すると端末2のディスプレイのUI画像(図11)に対処アラートに含まれるクーリングを実施するよう促す文字列を出力する。これにより看護師等のユーザは、予め受けている指示に基づいて、指示通りにクーリングの処置を実施する。これにより看護師等のユーザは、患者の体温が上昇した際のクーリングの処置を早期に気づいて実行することができる。
対処アラート生成部16は、患者の生体情報を含む入力情報が看護情報として記録された場合に、その入力情報が看護対処ルールと一致する場合に、所定処置を促す対処アラートを生成してもよい。
この看護対処ルールの具体れ例として、カルテ情報に体温が閾値以上に上昇した場合の医師の指示が記載されており、患者の体温がその閾値以上上昇した場合に、カルテ情報内の医師の指示を示す情報を看護師等のユーザに通知する文字列を送信することが規定されている場合について説明する。この場合には、対処アラート生成部16は、カルテ情報に含まれる体温の上昇の閾値と、医師の指示情報とを取得する。対処アラート生成部16は、看護情報に含まれる入力情報に基づいて、患者の体温の変化に基づいて、所定期間において体温が閾値以上に上昇している場合、医師の指示情報の文字列を含む対処アラートを生成する。また対処アラート出力部17が対処アラートを端末2に送信する。端末2はこの対処アラートを受信すると端末2のディスプレイのUI画像(図11)に医師の指示情報を示す文字列を出力する。これにより看護師等のユーザは、患者の体温が閾値以上上昇した際、医師の指示に従った処置を早期行うことができる。
この看護対処ルールの具体れ例として、カルテ情報に体温が閾値以上に上昇した場合の医師の指示が記載されており、患者の体温がその閾値以上上昇した場合に、カルテ情報内の医師の指示を示す情報を看護師等のユーザに通知する文字列を送信することが規定されている場合について説明する。この場合には、対処アラート生成部16は、カルテ情報に含まれる体温の上昇の閾値と、医師の指示情報とを取得する。対処アラート生成部16は、看護情報に含まれる入力情報に基づいて、患者の体温の変化に基づいて、所定期間において体温が閾値以上に上昇している場合、医師の指示情報の文字列を含む対処アラートを生成する。また対処アラート出力部17が対処アラートを端末2に送信する。端末2はこの対処アラートを受信すると端末2のディスプレイのUI画像(図11)に医師の指示情報を示す文字列を出力する。これにより看護師等のユーザは、患者の体温が閾値以上上昇した際、医師の指示に従った処置を早期行うことができる。
図12はUI画像の第三の例を示す図である。
看護支援装置1のUI画像生成部19は、他の例として図12で示すようなUI画像g1を生成して端末2へ出力する。図12で示すUI画像g1は、看護支援装置1が、スマートフォン等の携帯型でディスプレイのサイズが比較的小さい端末2に送信する画像である。図12で示すUI画像g1では、端末2の利用ユーザが入力情報の入力(音声メモ録音)をするための操作ボタンB1、入力情報の確認をするための操作ボタンB2、情報検索をするための操作ボタンB3が表示される場合の例を示す。
看護支援装置1のUI画像生成部19は、他の例として図12で示すようなUI画像g1を生成して端末2へ出力する。図12で示すUI画像g1は、看護支援装置1が、スマートフォン等の携帯型でディスプレイのサイズが比較的小さい端末2に送信する画像である。図12で示すUI画像g1では、端末2の利用ユーザが入力情報の入力(音声メモ録音)をするための操作ボタンB1、入力情報の確認をするための操作ボタンB2、情報検索をするための操作ボタンB3が表示される場合の例を示す。
図13はUI画像の第四の例を示す図である。
図12で示したUI画像g1において、端末2のユーザが入力情報の入力ボタンB1を押下すると、端末2は図13で示すUI画像g2を出力する。端末2はUI画像g2を出力すると音声録音を待機する。UI画像g2には図13で示すようにスタート(START)ボタンB4が表示される。ユーザがスタートボタンB4を押下操作すると、端末2の録音機能がマイクを介して入力情報の一態様である音声を取得する。ユーザによるスタートボタンB4の押下操作を検出すると端末2はそのスタートボタンB4に代えてストップ(STOP)ボタンB5をUI画像g2に表示する。ユーザは音声による入力情報の入力を終了した場合ストップボタンB5を押下操作する。すると端末2は録音機能を停止する。端末2は取得した音声を文字変換してUI画像g2の入力情報表示領域14Aに出力するようにしてもよい。UI画像g2には入力情報のアップロードボタンB6が表示される。ユーザはアップロードボタンB6を押下する。すると端末2は入力した音声を変換した文字情報を入力情報として看護支援装置1へ送信する。
図12で示したUI画像g1において、端末2のユーザが入力情報の入力ボタンB1を押下すると、端末2は図13で示すUI画像g2を出力する。端末2はUI画像g2を出力すると音声録音を待機する。UI画像g2には図13で示すようにスタート(START)ボタンB4が表示される。ユーザがスタートボタンB4を押下操作すると、端末2の録音機能がマイクを介して入力情報の一態様である音声を取得する。ユーザによるスタートボタンB4の押下操作を検出すると端末2はそのスタートボタンB4に代えてストップ(STOP)ボタンB5をUI画像g2に表示する。ユーザは音声による入力情報の入力を終了した場合ストップボタンB5を押下操作する。すると端末2は録音機能を停止する。端末2は取得した音声を文字変換してUI画像g2の入力情報表示領域14Aに出力するようにしてもよい。UI画像g2には入力情報のアップロードボタンB6が表示される。ユーザはアップロードボタンB6を押下する。すると端末2は入力した音声を変換した文字情報を入力情報として看護支援装置1へ送信する。
図14はUI画像の第五の例を示す図である。
図12で示したUI画像g1において、端末2のユーザが入力情報の確認ボタンB2を押下すると、端末2は患者選択一覧を表示する。ユーザが患者選択一覧において所望の患者の氏名を選択する。選択に応じて、端末2は図14で示すUI画像g3を出力する。UI画像g3には入力情報の一覧表示領域15A、患者情報表示領域15B、更新ボタンB7などが表示される。端末2は患者情報表示領域15Bにユーザから指定された患者の氏名を表示する。端末2はユーザによる患者の氏名の選択を検出すると、その患者の患者IDを含む看護情報一覧要求を看護支援装置1へ送信する。
図12で示したUI画像g1において、端末2のユーザが入力情報の確認ボタンB2を押下すると、端末2は患者選択一覧を表示する。ユーザが患者選択一覧において所望の患者の氏名を選択する。選択に応じて、端末2は図14で示すUI画像g3を出力する。UI画像g3には入力情報の一覧表示領域15A、患者情報表示領域15B、更新ボタンB7などが表示される。端末2は患者情報表示領域15Bにユーザから指定された患者の氏名を表示する。端末2はユーザによる患者の氏名の選択を検出すると、その患者の患者IDを含む看護情報一覧要求を看護支援装置1へ送信する。
看護支援装置1は看護情報一覧要求を受信する。UI画像生成部19は看護支援装置1が受信した看護情報一覧要求を取得する。UI画像生成部19は看護情報一覧要求から患者IDを取得する。UI画像生成部19は、その患者IDに紐づいてデータベース104に記録されている看護情報のうちの入力情報を少なくとも取得する。UI画像生成部19は取得した入力情報を含む看護情報一覧を生成し、端末2へ送信する。UI画像生成部19は患者IDに基づいて取得した看護情報が示す入力情報のうち、所定の入力情報のみを含む看護情報一覧を生成してもよい。例えば、UI画像生成部19は、現在時刻から所定時間前までの時刻の時間範囲に記録された入力情報のみを含む看護情報一覧を生成してもよい。または看護情報の各入力情報に重要度フラグが付されてデータベース104に記録されており、その重要度フラグが付された入力情報のみを含む看護情報一覧を生成してもよい。端末2は看護情報一覧に含まれる一つまたは複数の過去の入力情報の一覧表示領域15Aへ表示する。これにより、ユーザは所定の患者について過去に入力された入力情報を閲覧することが可能となり、その患者に対する過去の看護状況を把握することができる。また一覧表示領域15Aに表示された看護情報の対象とする患者が、看護師等のユーザの担当患者でなく、詳細な情報が不明な患者であったとしても、看護状況を瞬時に把握することができる。担当患者でなくても、ユーザは、把握した情報をもとに、早く、適切な看護ができる。端末2は入力情報の一覧表示領域15Aに表示した入力情報の文字を読み上げる音声出力処理を行うようにしてもよい。ユーザは更新ボタンB7を押下操作することで看護情報一覧要求の再送信を端末2に指示することができる。つまり更新ボタンB7の押下を検知した端末2は、看護情報一覧要求を看護支援装置1へ送信する。その後の処理は上記の処理と同様である。
図15はUI画像の第六の例を示す図である。
図12で示したUI画像g1において、端末2のユーザが情報検索ボタンB3を押下すると、端末2は表示される患者選択一覧を表示する。ユーザが当該患者選択一覧において所望の患者の氏名を選択する。すると端末2は図15で示すUI画像g4を出力する。UI画像g4には検索内容入力欄16A、検索結果表示欄16B、詳細表示欄16C、音声入力停止ボタンB8、検索ボタンB9、読み上げボタンB10、停止ボタンB11などが含まれる。
図12で示したUI画像g1において、端末2のユーザが情報検索ボタンB3を押下すると、端末2は表示される患者選択一覧を表示する。ユーザが当該患者選択一覧において所望の患者の氏名を選択する。すると端末2は図15で示すUI画像g4を出力する。UI画像g4には検索内容入力欄16A、検索結果表示欄16B、詳細表示欄16C、音声入力停止ボタンB8、検索ボタンB9、読み上げボタンB10、停止ボタンB11などが含まれる。
ユーザは検索内容を入力する。一例として、UI画像g4が表示された直後に、端末2は録音機能をONしマイクを介して入力情報の一態様である音声を自動的に取得する。端末2は音声を解析して文字情報に変換し検索内容入力欄16Aに出力する。または、端末2は、入力手段のユーザによる操作によって文字情報を直接取得して、検索内容入力欄16Aに出力してもよい。ユーザが検索ボタンB9を押下操作すると端末2は、検索内容に含まれる文字情報と選択された患者の患者IDを含む検索要求を看護支援装置1へ送信する。
看護支援装置1は検索要求を受信する。看護支援情報出力部18は検索要求を取得する。看護支援情報出力部18は検索要求に含まれる患者IDと検索内容の文字情報とを取得する。検索内容には記録内容種別、SOAP種別、入力情報を特定する単語などが含まれてよい。看護支援情報出力部18は患者IDにより紐づいており、検索内容の文字情報を含む看護情報を検索して取得する。これにより看護支援情報出力部18は、ユーザ所望の患者の看護情報の中から、記録内容種別、SOAP種別、入力情報を特定する単語等に一致する看護情報を取得することができる。看護支援情報出力部18は取得した看護情報に含まれる入力情報を少なくも含む検索結果を端末2へ送信する。検索結果には看護情報として記録されている入力情報に紐づくレコードの全て(看護師ID、看護種別、SOAP種別、記録内容種別)が含まれてよい。以上の看護支援情報出力部18の処理は、患者の識別子とその患者に関する過去の入力情報とを指定する検索要求(指定情報)の出力先装置(端末)からの取得に基づいて、患者の入力情報に関連する看護支援情報を出力先装置へ出力する処理の態様の一例である。
端末2は検索結果に含まれる入力情報を検索結果表示欄16Bへ出力する。また端末2は検索結果に含まれる入力情報以外の情報(看護師ID、看護種別、SOAP種別、記録内容種別)を詳細表示欄16Cへ出力する。ユーザは、読み上げボタンB10を押下操作する。端末2は読み上げボタンB10の押下操作を検知すると検索結果表示欄16Bに表示された文字の読み上げ処理を行いスピーカからその読み上げ音声を出力する。これにより看護師等のユーザはハンズフリーで看護作業を行いながら検索内容に基づく過去の看護情報を聞くことができる。ユーザが停止ボタンB11を押下操作した場合、その操作を検知した端末2は読み上げ処理を停止する。
以上、本発明の実施形態について説明したが、上述の処理によれば、看護情報を活用して対処アラートを生成することにより、看護者の患者への対処のための気づきを含む情報を効率よく通知することができる。
図16は別の実施形態による看護支援装置1を示す図である。
図16が示すように看護支援装置1は少なくとも、対処アラート生成部16と、対処アラート出力部17とを備える。
対処アラート生成部16は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する。
対処アラート出力部17は、患者の看護者に関する出力先装置に対処アラートを出力する。
図16が示すように看護支援装置1は少なくとも、対処アラート生成部16と、対処アラート出力部17とを備える。
対処アラート生成部16は、患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する。
対処アラート出力部17は、患者の看護者に関する出力先装置に対処アラートを出力する。
上述の看護支援装置1は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2018年10月23日に出願された日本国特願2018-199528を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、看護支援装置、看護支援方法、記録媒体に適用してもよい。
1・・・看護支援装置
2・・・端末
11・・・制御部
12・・・モデル生成部
13・・・取得部
14・・・種別判定部
15・・・記録部
16・・・対処アラート生成部
17・・・対処アラート出力部
18・・・看護支援情報出力部
19・・・UI画像生成部
100・・看護支援システム
2・・・端末
11・・・制御部
12・・・モデル生成部
13・・・取得部
14・・・種別判定部
15・・・記録部
16・・・対処アラート生成部
17・・・対処アラート出力部
18・・・看護支援情報出力部
19・・・UI画像生成部
100・・看護支援システム
Claims (9)
- 患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成する対処アラート生成部と、
前記患者の看護者に関する出力先装置に前記対処アラートを出力する対処アラート出力部と、
を備える看護支援装置。 - 前記対処アラート生成部は、前記看護情報に含まれる処置に関する情報を特定し、前記処置に対応する所定処置を示す前記看護対処ルールを用いて、前記所定処置を促す対処アラートを生成する
請求項1に記載の看護支援装置。 - 前記看護対処ルールが、特定の医薬品を示す情報に関連付けられた所定時間を示すルールを含み、
前記看護情報は、第1の時刻に登録された第1の看護情報と、前記第1の時刻よりも後の第2の時刻に登録された第2の看護情報とを含み、
前記対処アラート生成部は、前記第1および第2の看護情報が前記医薬品を示す情報を含み、かつ、前記第1の時刻と前記第2の時刻との間隔が前記所定時間以内である場合に、前記対処アラートを生成する
請求項2に記載の看護支援装置。 - 前記看護情報は、前記患者の生体情報を含み、
前記看護対処ルールは、前記生体情報に対応する所定処置を示すルールを含み、
前記対処アラート生成部は、前記対処アラートとして、前記所定処置を促す対処アラートを生成する
請求項1から請求項3の何れか一項に記載の看護支援装置。 - 前記患者の識別子と前記患者に関する過去の入力情報とを指定する指定情報の前記出力先装置からの取得に応答して、前記患者の入力情報に関連する看護支援情報を前記出力先装置へ出力する看護支援情報出力部と、
をさらに備える請求項1から請求項3の何れか一項に記載の看護支援装置。 - 所定の通信装置との通信に基づいて動作を開始した前記出力先装置から前記看護情報となる入力情報を取得する取得部と、
をさらに備える請求項1から請求項4の何れか一項に記載の看護支援装置。 - 前記看護情報に基づいて算出された重症度合を算出する重症度合算出部と、
前記重症度合に基づいて患者ごとの表示態様が異なる画像を生成して前記出力先装置へ出力する画像生成部と、
をさらに備える請求項1から請求項6の何れか一項に記載の看護支援装置。 - 患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成し、
前記患者の看護者に関する出力先装置に前記対処アラートを出力する
ことを含む看護支援方法。 - コンピュータに、
患者の看護情報と看護対処ルールとに基づいて看護に関する対処アラートを生成し、
前記患者の看護者に関する出力先装置に前記対処アラートを出力する、
ことを実行させるプログラムを記憶した記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/285,224 US20220139548A1 (en) | 2018-10-23 | 2019-10-15 | Nursing assistance device, nursing assistance method, and recording medium |
JP2020553196A JP7235342B2 (ja) | 2018-10-23 | 2019-10-15 | 看護支援装置、看護支援方法、プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-199528 | 2018-10-23 | ||
JP2018199528 | 2018-10-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020085147A1 true WO2020085147A1 (ja) | 2020-04-30 |
Family
ID=70331979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/040475 WO2020085147A1 (ja) | 2018-10-23 | 2019-10-15 | 看護支援装置、看護支援方法、記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220139548A1 (ja) |
JP (1) | JP7235342B2 (ja) |
WO (1) | WO2020085147A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021176035A (ja) * | 2020-05-01 | 2021-11-04 | コニカミノルタ株式会社 | 情報処理装置および情報処理プログラム |
WO2023053177A1 (ja) * | 2021-09-28 | 2023-04-06 | 日本電気株式会社 | アセスメント評価装置、アセスメント支援方法及び記憶媒体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11276444A (ja) * | 1998-03-27 | 1999-10-12 | Nec Corp | 患者監視装置における警報システム |
JP2002117144A (ja) * | 2000-07-31 | 2002-04-19 | Olympus Optical Co Ltd | 薬剤等投与管理システム |
JP2016045727A (ja) * | 2014-08-22 | 2016-04-04 | 国立大学法人佐賀大学 | 医療情報支援システム、医療情報支援方法及び医療情報支援プログラム |
JP2017513125A (ja) * | 2014-03-28 | 2017-05-25 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | スマートフォンベースの複数患者のワークリスト(spwl) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7492388B2 (en) * | 2003-05-16 | 2009-02-17 | Olympus Corporation | System and method for automatic processing of endoscopic images |
JP2006133908A (ja) * | 2004-11-02 | 2006-05-25 | Olympus Corp | 看護情報管理方法および看護情報管理装置および看護情報管理システム |
US20150186602A1 (en) * | 2012-05-18 | 2015-07-02 | VGBio, Inc. | System and Method for Priority-Based Management of Patient Health for a Patient Population |
US20140276165A1 (en) * | 2013-03-14 | 2014-09-18 | Covidien Lp | Systems and methods for identifying patient talking during measurement of a physiological parameter |
JP2014219714A (ja) * | 2013-05-01 | 2014-11-20 | データCaps株式会社 | 電子カルテシステム |
US9706950B2 (en) * | 2014-03-31 | 2017-07-18 | Angulus Corp. | Accelerometer and wireless notification system |
-
2019
- 2019-10-15 WO PCT/JP2019/040475 patent/WO2020085147A1/ja active Application Filing
- 2019-10-15 US US17/285,224 patent/US20220139548A1/en not_active Abandoned
- 2019-10-15 JP JP2020553196A patent/JP7235342B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11276444A (ja) * | 1998-03-27 | 1999-10-12 | Nec Corp | 患者監視装置における警報システム |
JP2002117144A (ja) * | 2000-07-31 | 2002-04-19 | Olympus Optical Co Ltd | 薬剤等投与管理システム |
JP2017513125A (ja) * | 2014-03-28 | 2017-05-25 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | スマートフォンベースの複数患者のワークリスト(spwl) |
JP2016045727A (ja) * | 2014-08-22 | 2016-04-04 | 国立大学法人佐賀大学 | 医療情報支援システム、医療情報支援方法及び医療情報支援プログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021176035A (ja) * | 2020-05-01 | 2021-11-04 | コニカミノルタ株式会社 | 情報処理装置および情報処理プログラム |
JP7484393B2 (ja) | 2020-05-01 | 2024-05-16 | コニカミノルタ株式会社 | 情報処理装置および情報処理プログラム |
WO2023053177A1 (ja) * | 2021-09-28 | 2023-04-06 | 日本電気株式会社 | アセスメント評価装置、アセスメント支援方法及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20220139548A1 (en) | 2022-05-05 |
JP7235342B2 (ja) | 2023-03-08 |
JPWO2020085147A1 (ja) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108289608B (zh) | 诊疗辅助装置、生物体信息测定方法、记录介质、生物体信息测定装置 | |
JP5959051B2 (ja) | 認知症問診支援装置 | |
JP2009153645A (ja) | モニタリングネットワークシステム | |
WO2013031067A1 (ja) | トリアージタグ管理システム、そのためのスマートフォン及びトリアージタグ管理方法 | |
CN107910073A (zh) | 一种急诊预检分诊方法及装置 | |
WO2020085147A1 (ja) | 看護支援装置、看護支援方法、記録媒体 | |
WO2020112147A1 (en) | Method of an interactive health status assessment and system thereof | |
CN108447529B (zh) | 一种医疗数据处理方法和设备 | |
JP2021192133A (ja) | 病院システム、サーバ装置、およびスケジュール管理方法 | |
Deb et al. | Emphasizing sexual orientation and gender identity data capture for improved cardiovascular care of the LGBTQ+ population | |
JP3845380B2 (ja) | 看護支援システム、看護支援方法、および看護支援プログラム | |
JP6775203B2 (ja) | 診療支援装置、診療支援方法、診療支援プログラムおよび診療支援システム | |
JP2008250664A (ja) | 看護必要度管理システム | |
JP2008242502A (ja) | 総合医療支援システム | |
JPH09313450A (ja) | 日常健康データ自動送信システム | |
WO2021130953A1 (ja) | 会話支援装置、会話支援システム、会話支援方法及び記録媒体 | |
JP2005052343A (ja) | 自動問診装置 | |
JP2006268698A (ja) | 類似症例表示装置、及び類似症例表示プログラム | |
JP6989203B2 (ja) | 医療装置、システム、及び方法 | |
JP2005063125A (ja) | 診療支援システム、診療支援装置、診療支援方法、その方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記憶したコンピュータ読み取り可能な情報記録媒体 | |
JP2010055396A (ja) | 看護支援システム | |
US8753293B2 (en) | Control system for childbirth and method thereof | |
JP2010092441A (ja) | 患者登録システムへのデータ移行システム | |
JP2017228003A (ja) | 症候診断支援サービス提供システム及び症候診断支援サービス提供方法 | |
WO2020085144A1 (ja) | 看護支援装置、看護支援方法、記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19876151 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2020553196 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19876151 Country of ref document: EP Kind code of ref document: A1 |