WO2019111618A1 - 患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体 - Google Patents

患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体 Download PDF

Info

Publication number
WO2019111618A1
WO2019111618A1 PCT/JP2018/041155 JP2018041155W WO2019111618A1 WO 2019111618 A1 WO2019111618 A1 WO 2019111618A1 JP 2018041155 W JP2018041155 W JP 2018041155W WO 2019111618 A1 WO2019111618 A1 WO 2019111618A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical staff
patient
score
item
unit
Prior art date
Application number
PCT/JP2018/041155
Other languages
English (en)
French (fr)
Inventor
昌洋 林谷
園 駱
久保 雅洋
茂実 北原
Original Assignee
日本電気株式会社
株式会社Kitahara Medical Strategies International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 株式会社Kitahara Medical Strategies International filed Critical 日本電気株式会社
Priority to US16/770,347 priority Critical patent/US20200365256A1/en
Priority to JP2019558086A priority patent/JP7064227B2/ja
Publication of WO2019111618A1 publication Critical patent/WO2019111618A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present invention relates to a patient condition determination apparatus, a patient condition determination system, a patient condition determination method, and a patient condition determination program recording medium.
  • medical staff In hospitals (especially emergency hospitals), medical personnel such as doctors and nurses (hereinafter referred to as “medical staff”) measure (determine) the condition of patients who have been ambulanced by ambulances etc. Often occur. It is speculated that patients who have been transported to emergency have suspicion of cerebrovascular disease and the like. In such situations, the medical staff will need to know the patient's condition (eg, paralysis, ataxia etc.) in real time.
  • Measurement techniques for measuring (determining) the condition of a patient suspected of such cerebrovascular disease are known in the art.
  • One of the measurement methods is the NIHSS (National Institute of Health Stroke Scale).
  • NIHSS National Institute of Health Stroke Scale
  • NIHSS has 13 items to be measured (judged). Therefore, it is necessary for the medical staff to carry out the task (task) of selecting the score for each item of NIHSS within the measurement time (determination time) for each measurement cycle.
  • the total score of each item is 42 points.
  • the measurement time (determination time) is preferably as short as possible as compared to the measurement cycle, and for example, preferably 3 minutes.
  • Patent Document 1 discloses a system for classifying one or more subjects (patients) into one or more categories indicating health status associated with one or more subjects (patients).
  • the health condition score may correspond to a stroke score such as an NIHSS score.
  • Patent Document 1 describes an example in which the NIHSS score is classified into four categories, whereby a doctor determines the severity of stroke based on the category in which the subject is classified.
  • Patent Document 2 discloses a remote place medical system in which a doctor or the like at a remote place performs diagnosis of a patient.
  • a remote place medical system a system for measuring a body sound of a patient (a person to be measured) at a medical site using an electronic stethoscope is disclosed. Describes a system for recording information.
  • a diagnostic person such as a doctor who is remotely located from a medical site can browse the body sound information and use it for patient diagnosis.
  • information (measurement scenario) for supporting the measurement activity of the measurer is displayed on the display unit, and the operation screen is displayed as a GUI (Graphical User Interface) screen.
  • Patent Document 2 shows an example of a measurement support screen reflecting the contents of a measurement scenario.
  • the measurement support screen includes an output area in which an auscultation procedure included in the measurement scenario is displayed and an output area in which auscultation area visualization information is displayed.
  • the measurer confirms the image data and starts auscultation according to the measurement support screen. After acquiring the body sound of the patient, the measurer taps the button.
  • NIHSS In the above-described NIHSS, medical staff (especially, unskilled and inexperienced medical staff) may be confused about the selection of the score of each item. As a result, the measurement (determination) of NIHSS may take time. Therefore, it is desirable to solve the problem of the judgment confusion of measurement (judgment) in such medical staff or to shorten the measurement time (judgment time).
  • Patent Documents 1 and 2 can not solve such a problem.
  • Patent Document 1 merely discloses the technical idea of classifying the range of the NIHSS score into a plurality of categories. Therefore, in Patent Document 1, the medical staff must continue to select the score for each item of the NIHSS (business) as usual, and it is difficult to judge the measurement (determination) or the measurement time (determination Time) can not be solved.
  • Patent Document 2 merely discloses a telemetry system in which a measurer performs measurement (auscultation) on a patient and a remote doctor diagnoses using auscultation results.
  • the measurer is only making appropriate measurements on the patient using a measuring instrument such as an electronic stethoscope according to the measurement scenario.
  • a measuring instrument such as an electronic stethoscope according to the measurement scenario.
  • An object of the present invention is to provide a patient condition determination apparatus, a patient condition determination system, a patient condition determination method, and a patient condition determination program recording medium which can solve the above-mentioned problems and improve the work of medical staff.
  • the patient condition determination apparatus recognizes and recognizes a plurality of items to be measured for the patient, sequentially an instruction unit instructing the medical staff; and responses from the medical staff to the instructed items.
  • a reaction recognition unit that outputs a result; and a score determination unit that determines a score for the instructed item based on the recognition result and outputs the determined score; the indication unit includes the plurality of items. Presenting each to the medical staff in the form of at least one question associated with the item.
  • the patient condition determination system of the present invention includes the above-described patient condition determination device, and a counting device that receives the determined number of points from the patient condition determination device and counts the number of points.
  • the instructing unit sequentially instructs the medical staff on a plurality of items to be measured for the patient; the reaction recognition unit responds to the instructed items from the medical staff And outputs a recognition result; the score determination unit determines the score for the instructed item based on the recognition result and outputs the determined score; the indication unit includes the plurality of items. Presenting each to the medical staff in the form of at least one question associated with the item.
  • the patient condition determination program recording medium of the present invention recognizes a plurality of items to be measured for the patient, sequentially an instruction procedure instructing the medical staff, and a reaction from the medical staff to the instructed items. Recording a patient state determination program that causes a computer to execute a reaction recognition procedure that outputs a recognition result; and a score determination procedure that determines a score for the instructed item based on the recognition result and outputs the determined score;
  • the instruction procedure causes the computer to present each of the plurality of items to the medical staff in the form of at least one question associated with the item.
  • the work of medical staff can be improved.
  • FIG. 5 is a flowchart illustrating an operation of changing notification contents to be instructed by an instruction unit by feedback before the start of measurement in the patient state determination device shown in FIG.
  • FIG. 4 It is a block diagram which shows the structure of the patient state determination system which concerns on the 4th Embodiment of this invention. It is a flowchart which shows the flow of operation
  • FIG. 1 is a block diagram showing the configuration of a patient condition determination system according to a first embodiment of the present invention.
  • the patient state determination system includes a patient state determination device 100 and a counting device 200.
  • the patient state determination device 100 and the counting device 200 may be on the same device.
  • the patient state determination system it is assumed that medical staff such as a nurse and a doctor measure (determine) the state of a patient in real time in each measurement cycle.
  • the patient may be, for example, a patient who has been ambulanced by an ambulance or the like. Such patients are suspected of having disorders such as cerebrovascular disease.
  • the measurement cycle is, for example, 15 minutes at the shortest.
  • the condition of the patient is, for example, paralysis or anaxia.
  • the medical staff needs to select the patient's condition for each of a plurality of items within the measurement time (determination time).
  • the plurality of items may be 13 items defined in the above NIHSS.
  • the 13 items specified in NIHSS will be described in detail later with reference to the drawings.
  • the measurement time (determination time) is desirably as short as possible as compared to the measurement cycle, and for example, 3 minutes is preferable.
  • the patient condition determination apparatus 100 is an apparatus capable of automatically determining the condition of a patient in real time at a medical site. It is assumed that a patient ID (identifier) is assigned to a patient. Moreover, staff ID (user ID) may be allocated to medical staff.
  • the patient state determination apparatus 100 includes a data processing unit 110 for processing data, a storage unit 120 for storing programs and data to be described later, an input unit 130 for inputting data, an output unit 140 for outputting data, and a communication interface. And 150.
  • a patient state determination device 100 may be realized by, for example, a tablet PC (personal computer).
  • the output device 140 includes a display device such as an LCD (Liquid Crystal Display) or a PDP (Plasma Display Panel), a printer, and a receiver.
  • the handset may be an earphone or headphones.
  • the output device 140 displays various information such as a plurality of questions and an operation menu associated with each item as described later, on the screen of the display device, and notifies each of the plurality of questions by voice from a receiver. It has the function of printing the final result on a printer.
  • the storage device 120 is a storage medium capable of holding various data.
  • the storage device 120 includes a storage medium such as a hard disk drive (HDD) or a solid state drive (SSD), or a memory such as a read only memory (ROM) or a random access memory (RAM).
  • the storage device 120 has a function of storing processing information (described later) and programs 122 necessary for various types of processing in the data processing apparatus 110.
  • the data processing apparatus 110 is composed of a microprocessor such as a micro processing unit (MPU) and a central processing unit (CPU).
  • the data processing device 110 has a function of reading various programs 122 from the storage device 120 and implementing various processing units that process data according to the programs 122.
  • the input device 130 includes, for example, a keyboard, a mouse, a touch panel, and a microphone.
  • the input device 130 may also include various sensors for measuring the condition of the patient.
  • a sensor may be, for example, a watch-type sensor or vital sensor attached to a patient, or a camera for imaging a patient's condition.
  • the input device 130 when the input device 130 includes a touch panel and the output device 140 includes a display device, they may be integrally formed and configured as a display device with a touch panel.
  • the communication interface 150 is an interface that connects between the patient state determination device 100 and the counting device 200 described later via a wired or wireless connection.
  • the communication interface 150 is realized by, for example, a transmitter, a transceiver, or a connector.
  • the transmitter modulates the carrier wave with the processing result (specifically, the number of points determined later) of the data processing apparatus 110, and the modulated wave is aggregated by radio as a transmission wave. Send to device 200.
  • a recording medium (not shown) may be used. In this case, the processing result (the determined score) is written as recording information on the recording medium via the connector, with the patient ID added.
  • the medical staff may need to perform treatment on the patient when measuring (determining) the condition of the patient. Therefore, it is preferable to use an earphone with a microphone or a headphone with a microphone as a combination of the receiver and the microphone.
  • the patient condition determination apparatus 100 may be placed on a carrier (bed) carrying the patient.
  • both voice and image are used as instructions for medical staff and reaction of medical staff. Therefore, as a combination of the input device 130 and the output device 140, an earphone with a microphone and a display device with a touch panel are provided. However, according to the present invention, only images (text data) may be used as instructions for medical staff and responses of medical staff.
  • the storage device 120 includes an item storage unit 124.
  • the item storage unit 124 a plurality of items necessary for measuring the condition of the patient are stored in advance in the form of a plurality of questions associated with each item in the measurement time (determination time) in accordance with the order. ing.
  • the item storage unit 124 stores a plurality of questions as voice data and text data.
  • the allowable time is set in advance for each of the plurality of items. These permissible times may be uniform or different. In the present embodiment, the allowable time is uniform. The permitted time is also stored in the item storage unit 124 in association with each item.
  • Such voice data and text data may be read from a predetermined database, for example, and the item storage unit 124 may store only necessary information immediately before the start time of the measurement time (determination time).
  • the patient condition determination apparatus 100 is placed on the patient's carriage (bed), the following may be performed.
  • Send to Patient state determination apparatus 100 may include a receiver (not shown) for receiving the transmitted necessary items, and may store the received necessary items in item storage unit 124. .
  • the patient state determination device 100 directly supplies the necessary items received by the receiver to the instruction unit 111 (described later) of the data processing device 110. You may
  • the data processing device 110 includes an instruction unit 111, a reaction recognition unit 112, a point determination unit 113, a time measurement unit 114, and a control unit 118 as main processing units.
  • the instructing unit 111 sequentially instructs the medical staff on a plurality of items to be measured for the patient.
  • the reaction recognition unit 112 recognizes the reaction from the medical staff to the instructed item, and outputs the recognition result.
  • the score determination unit 113 determines the score for the instructed item based on the recognition result, and outputs the determined score.
  • the instructing unit 111 presents each of the plurality of items to the medical staff in the form of at least one question associated with the item. At this time, the instruction unit 111 may present the allowable time to medical staff for each item.
  • the time measurement unit 114 measures an elapsed time from the start time when the instruction of each item is started for the medical staff.
  • the control unit 118 controls the overall operation of the data processing apparatus 110. The operation of each processing unit will be described in more detail below.
  • the instruction unit 111 sends the audio data read from the item storage unit 124 to the earphone with a microphone of the output device 140.
  • the earphone of the microphone-equipped earphone converts voice data into question voice. Therefore, the combination of the instruction unit 111 and the earphones of the output device 140 acts as a voice notification means for sequentially notifying a medical staff of a plurality of items with question voices.
  • the combination of the item storage unit 124, the instruction unit 111, and the earphones of the output device 140 acts as a presentation unit that sequentially presents a plurality of items necessary for measuring the condition of the patient to the medical staff by voice.
  • the instruction unit 111 sends the text data read from the item storage unit 124 to the display device with the touch panel of the output device 140.
  • the display device with a touch panel displays text data on its display screen. Therefore, the combination of the instruction unit 111 and the display device with the touch panel of the output device 140 also serves as text notification means for notifying medical staff of a plurality of items sequentially as question text data. Therefore, the combination of the item storage unit 124, the instruction unit 111, and the display device with the touch panel of the output device 140 sequentially presents the medical staff with an image (text data) necessary for measuring the condition of the patient. Act as a presentation unit.
  • the medical staff speaks a response (response) to it to the microphone of the microphone-equipped earphone of the input device 130. For example, it is assumed that "Are there any response?" In this case, the medical staff, for example, answers (answers) "Yes" to the microphone.
  • the microphone converts this "yes" answer voice into an input value of the answer voice signal which is an electrical signal. Therefore, the microphone of the earphone with microphone acts as an input unit that inputs an answer voice uttered by the medical staff in response to the instructed item and outputs an input value (answer voice signal).
  • the medical staff responds to it by operating the touch panel of the display device with the touch panel which is the input device 130. input.
  • icons of “Yes” and “No” are displayed on the touch panel with a touch panel.
  • the question text data displayed on the touch panel-equipped display device is "Is there a response?"
  • the medical staff for example, touches the “Yes” icon on the touch panel to answer (answer).
  • the touch panel outputs an answer text signal indicating an answer of “Yes”. Therefore, the touch panel of the display device with the touch panel acts as an input unit for medical staff to input an answer text signal in response to the instructed item.
  • both voice and images are used as responses from medical staff.
  • text data images
  • the surroundings are noisy, etc.
  • only the image (text data) will be used as a response from the medical staff.
  • the reaction recognition unit 112 includes a speech recognition unit (not shown).
  • the voice recognition unit identifies the answer voice signal, and outputs the identification result as the recognition result.
  • the answer voice signal is a voice signal indicating "Yes”.
  • the voice recognition unit of the reaction recognition unit 112 outputs the result of “Yes” as the recognition result (identification result).
  • the reaction recognition unit 112 recognizes the response text signal and outputs a recognition result.
  • the response text signal is a text signal indicating "Yes”.
  • the reaction recognition unit 112 outputs the result of “Yes” as the recognition result.
  • the recognition result is supplied to the score determination unit 113.
  • the score determination unit 113 determines the score for the instructed item based on the recognition result. For example, it is assumed that the instructed item is the "consciousness level".
  • the instruction unit 11 instructs the medical staff via the output device 140, along with an instruction (guidance) on the treatment for the patient, "Is there a response?”
  • the point judging unit 113 is supplied with the recognition result of “Yes” or “No” from the reaction recognition unit 112.
  • the score determination unit 113 determines a score (in this case, a score between 0 and 3 points) for the item of “consciousness level” based on the recognition result of “Yes” or “No”.
  • the aggregation device 200 includes a data processing device 210 that processes data, a storage device 220 that stores programs and data to be described later, and a communication interface 230.
  • the data processing device 210 includes an aggregation unit 212.
  • the communication interface 230 is an interface that connects between the counting device 200 and the patient state determination device 100 described above via a wired or wireless connection.
  • the communication interface 230 is realized by, for example, a receiver, a transceiver, or a connector.
  • the communication interface 230 includes a receiver, the receiver receives the transmission wave transmitted from the communication interface (transmitter) 150 of the patient state determination apparatus 100 as a reception wave.
  • the receiver demodulates the received wave and reproduces the above processing result (the number of judged points).
  • the communication interface 230 comprises a connector, the recording information (the determined score and the patient ID) recorded in the recording medium is read out via the connector.
  • the reproduced (read) determined points are supplied from the communication interface 230 to the data processor 210.
  • the aggregation unit 212 of the data processing device 210 aggregates the points.
  • the aggregation unit 212 stores the aggregated result in the storage device 220.
  • the patient condition determination apparatus 100 appropriately determines the condition of the patient in a relatively short measurement time (determination time) without the medical staff being lost in scoring. It becomes possible. The reason is that appropriate guidance and instructions are given to medical staff.
  • FIG. 2 is a flowchart showing the flow of the operation of the patient state determination device 100 shown in FIG. Hereinafter, the flow of the operation of the patient state determination apparatus 100 will be described with reference to FIGS. 1 and 2.
  • the instruction unit 111 reads an item from the item storage unit 124, and presents guidance of the item from the handset and the display device of the output device 140 (step S101). At this time, the instruction unit 111 may present the allowable time set for the item on the display screen of the display device. At the same time, the control unit 118 activates the time measuring unit 114, and causes the time measuring unit 114 to measure an elapsed time from the start time when the instruction is started.
  • the instruction unit 111 presents the question of the item as question voice and question text data using the earphone and the display device of the output device 140 (step S102).
  • the medical staff In response to the question voice and the question text data, the medical staff utters a response voice from the microphone of the input device 130 or operates the touch panel of the input device 130 to input a response.
  • the reaction recognition unit 112 recognizes (confirms) the answer voice signal or the answer text signal, and outputs a recognition result (confirmation result) (step S103).
  • the control unit 118 determines whether the elapsed time measured by the time measurement unit 114 has exceeded the allowable time (step S104). If the elapsed time has not passed the allowable time (No in step S104), the control unit 118 determines whether the question is the last question of the item (step S105). If it is not the last question (No in step S105), the control unit 118 causes the instructing unit 111 to present the next question (step S102). If it is the last question (Yes in step S105), the score determination unit 113 determines the score for the item based on the recognition result so far, and the control unit 118 instructs the instruction unit 111 to move to the next item. Are controlled (step S106).
  • step S104 When the elapsed time measured by the time measurement unit 114 has passed the allowable time (Yes in step S104), the score determination unit 113 determines the higher score as a response to the question at that time, The selected point is selected and output (step S107), and the control unit 118 controls the instruction unit 111 to shift to the next item (step S106).
  • FIG. 3 is a block diagram showing the configuration of a patient condition determination system according to a second embodiment of the present invention.
  • the patient state determination system includes a patient state determination device 100A and a counting device 200.
  • Patient state determination apparatus 100A has the same configuration as patient state determination apparatus 100 shown in FIG. 1 except that the contents of processing in the data processing apparatus and the contents of storage in the storage apparatus are different as described later. , To work. Thus, the data processing units and storage units are referenced 110A and 120A, respectively. The same reference symbols are attached to those having the same functions as those shown in FIG. 1, and in the following, only the differences will be described in order to simplify the description.
  • the data processing device 110A performs the same processing operation as that of the data processing device 110 shown in FIG. 1 except that the data processing device 110A includes an instruction unit 111A and a control unit 118A instead of the instruction unit 111 and the control unit 118.
  • the storage device 120A has the same configuration as the storage device 120 shown in FIG. 1 except that the storage device 120A further includes the point / time recording unit 126, and operates. That is, the storage device 120A includes a program 122, an item storage unit 124, and a point / time recording unit 126.
  • the score / time recording unit 126 links the score determined by the score determination unit 113 and the elapsed time in the time measurement unit 114 to the instructed item, and records it as recording information.
  • the control unit 118A links the points determined by the point determination unit 113 and the elapsed time in the time measurement unit 114 to the instructed items, and stores them in the point / time recording unit 126 as recording information.
  • a staff ID (user ID) may also be recorded as the record information.
  • the instruction unit 111A changes the content of notification to be instructed to the medical staff in this measurement based on the record information recorded in the score / time recording unit 126 in the past measurement including at least the previous time.
  • the notification content to be changed includes the allowable time set for the instructed item. That is, in the second embodiment, the allowable time is adjusted for each item.
  • the notification content to be changed may be displayed on the display device with the touch panel of the output device 140 together with the question and the number of points attached to the item in the past. In this case, the medical staff can react with reference to the displayed contents. As a result, the measurement time (determination time) can be shortened, and appropriate scoring can be performed.
  • the patient condition determination apparatus 100A according to the second embodiment is capable of shortening the measurement time (determination time) more appropriately than in the case of the first embodiment.
  • the reason is that the instruction unit 111A gives appropriate guidance and instructions to the medical staff by feeding back measurement results in the past.
  • FIG. 4 is a block diagram showing the configuration of a patient condition determination system according to a third embodiment of the present invention.
  • the patient state determination system includes a patient state determination device 100 ⁇ / b> B and a counting device 200.
  • Patient state determination apparatus 100B has the same configuration as patient state determination apparatus 100A shown in FIG. 3 except that the contents of processing in the data processing apparatus and the contents of storage in the storage apparatus are different as described later. , To work. Accordingly, the data processing unit and the storage unit are respectively designated by reference numerals 110B and 120B. The same reference symbols are attached to those having the same functions as those shown in FIG. 3, and in the following, only the differences will be described in order to simplify the description.
  • the data processing device 110B performs the same processing operation as that of the data processing device 110A shown in FIG. 3 except that the data processing device 110B includes an instructing unit 111B and a control unit 118B instead of the instructing unit 111A and the control unit 118A.
  • the storage device 120B has the same configuration as the storage device 120A shown in FIG. 3 except that it further includes the measurement state recording unit 128, and operates. That is, the storage device 120B includes a program 122, an item storage unit 124, a score / time recording unit 126, and a measurement state recording unit 128.
  • the patient is attached with a watch-type sensor or vital sensor, and a carriage for carrying the patient (bed) and a hospital room for containing the patient are provided with a camera for photographing the patient. It is done.
  • the measurement state recording unit 128 records data obtained from these sensors and an image captured by a camera as a measurement state.
  • the control unit 118B stores the vital data obtained from the sensors and the image taken by the camera in the measurement state recording unit 128 as the measurement state.
  • the instruction unit 111B sends medical staff the current measurement based on the record information recorded in the score / time recording unit 126 and the measurement state recorded in the measurement state recording unit 128 in the past measurements including at least the previous time.
  • the notification content to be changed includes the allowable time set for the instructed item, as in the second embodiment. That is, also in the third embodiment, the allowable time is adjusted for each item.
  • a score, vital data, and an image of a patient attached to an item in the past may be displayed on a display device with a touch panel of the output device 140 together with a question. In this case, the medical staff can react with reference to these display contents. As a result, the measurement time (determination time) can be further shortened, and more appropriate scoring can be performed.
  • the patient state determination apparatus 100B according to the third embodiment can shorten the measurement time (determination time) more than the case of the second embodiment and can perform more appropriate determination. is there.
  • the reason is that the indicator 111B gives appropriate guidance and instructions to the medical staff by feeding back the measurement results in the past and the condition of the patient.
  • FIG. 5 is a flow chart showing the flow of the operation of the patient state determination device 100B shown in FIG. Hereinafter, the flow of the operation of the patient state determination device 100B will be described with reference to FIGS. 4 and 5.
  • steps S101 to S106 in FIG. 5 are the same as steps S101 to S106 in FIG.
  • step S105 This is the last question (Yes in step S105), or the determination of the score in the score determination unit 113 is completed, or the elapsed time in the time measurement unit 114 exceeds the allowable time (Yes in step 104). It is assumed that the selection of the score by the score determination unit 113 (step S107) is finished. After that, the control unit 118B associates the score determined by the score determination unit 113 and the elapsed time in the time measurement unit 114 with the instructed item, and stores the result in the score / time recording unit 126 as recording information Step S108).
  • control unit 118B stores the vital data obtained from the above-described sensor and the image taken by the camera in the measurement state recording unit 128 as the measurement state (step S109). Thereafter, the control unit 118B controls the instruction unit 111B to shift to the next item (step S106).
  • control unit 118B confirms the user ID (staff ID) (step S201). Subsequently, the control unit 118B reads the recording information and the measurement state from the score / time recording unit 126 and the measurement state recording unit 128, respectively, and confirms the recording state of the patient up to now (step S202). The control unit 118B adjusts the allowable time set for each item based on the recording state (step S203). Thereafter, the control unit 118B activates the above-described sensor or camera to start recording of the measurement state (step S204). Then, the control unit 118B controls the instructing unit 111B to start measurement from the first item (step S205).
  • FIG. 7 is a block diagram showing the configuration of a patient condition determination system according to the fourth embodiment of the present invention.
  • the patient state determination system includes a patient state determination device 100C and a counting device 200.
  • the patient state determination device 100C has the same configuration as the patient state determination device 100A shown in FIG. 3 and operates except for differences in processing content in the data processing device as described later. Accordingly, the data processor is labeled 110C.
  • the same reference symbols are attached to those having the same functions as those shown in FIG. 3, and in the following, only the differences will be described in order to simplify the description.
  • the data processing device 110C has the same processing operation as the data processing device 110A shown in FIG. 3 except that the data processing device 110C includes a control unit 118C instead of the control unit 118A and further includes a similar case extracting unit 115. Do.
  • the patient state determination device 100C is communicably connected to a similar case database (not shown).
  • the similar case database is a database in which a plurality of similar cases are stored in advance.
  • the similar case extraction unit 115 is similar to the state of the patient from the similar case database. One similar case is extracted, and the extracted similar case is presented to medical staff.
  • the patient condition determination apparatus 100C according to the fourth embodiment can perform more appropriate determination than in the case of the second embodiment.
  • the reason is that similar cases in the past are presented to medical staff.
  • FIG. 8 is a flowchart showing the flow of the operation of the patient state determination apparatus 100C shown in FIG. Hereinafter, the flow of the operation of the patient state determination device 100C will be described with reference to FIGS. 7 and 8.
  • steps S101 to S106 in FIG. 8 are the same as steps S101 to S106 in FIG. 8 is different from FIG. 2 in that steps S110 and S111 are included instead of step S107 of FIG.
  • the similar case extraction unit 115 determines one similar case similar to the state of the patient from the similar case database. Are extracted and presented on the display device with a touch panel of the output device 140 by displaying the extracted similar cases (step S110). Therefore, medical staff can react with reference to the displayed similar case.
  • the reaction recognition unit 112 recognizes the reaction from the medical staff and outputs the recognition result (step S111).
  • the score determination unit 113 determines the score for the designated item based on the recognition result, and the control unit 118C controls the instruction unit 111A to shift to the next item (step S106).
  • FIGS. 1 and FIG. 2 a patient condition determination apparatus according to an embodiment of the present invention will be described with reference to FIGS.
  • this embodiment is similarly applicable to the patient condition determination devices 100A to 100C according to the other embodiments.
  • FIG. 9 is a diagram showing 13 items of NIHSS. These 13 items are well known in the art and will not be described in detail.
  • an operation of determining the condition of a patient will be described using the patient condition determination apparatus 100 shown in FIG. 1 for each of the 13 items of NIHSS.
  • voice data and text data of guidance and questions for these 13 items are stored in the item storage unit 124 in advance.
  • G shows guidance. Also, the guidance and questions are conducted on both voice and image (text data) as described above.
  • FIG. 10 is a flowchart showing guidance and questions instructed from the instruction unit 111 for the item “1a. Consciousness level”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “Please call the name without touching the patient” using the output device 140.
  • step S102 of FIG. 2 the instruction unit 111 presents a question of “Is there any reaction?” Using the output device 140 (step S301).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 of FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S301), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “consciousness level” to 0 based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S301 if there is no reaction from the patient, the medical staff answers "No” by voice from the microphone or touches the "No" icon on the display screen of the display device with a touch panel.
  • step S105 of FIG. 2 the instruction unit 111 presented a guidance of "Please tap the shoulder lightly next time” (Fig. After the step 2 of step S101), the question "Is there a reaction?" Is presented (step S102 of FIG. 2 and step S302 of FIG. 10).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S302), and outputs the recognition result.
  • the point determination unit 113 determines one point for the item "consciousness level" based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S302 if there is no reaction from the patient, the medical staff answers "No” by voice from the microphone or touches the "No" icon on the display screen of the display device with a touch panel.
  • step S105 of FIG. 2 the instruction unit 111 presented a guidance of "Please give strong stimulation next" (Fig. After the step 2 of step S101), the question "Is there a reaction?" Is presented (step S102 in FIG. 2 and step S303 in FIG. 10).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S303), and outputs the recognition result.
  • the point determination unit 113 sets two points for the item "consciousness level" based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S302 if there is no reaction from the patient, the medical staff answers "No” by voice from the microphone or touches the "No" icon on the display screen of the display device with a touch panel. In this case, since this is the last question of this item (Yes in step S105 of FIG. 2), the score determination unit 113 determines that the score for the item “consciousness level” is 3 based on the recognition result. Do. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S303 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 3 points as the score for the item of “consciousness level”.
  • FIG. 11 is a flowchart showing guidance and questions instructed from the instruction unit 111 for the item of “1b. Consciousness disorder-question”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance “Please listen to the patient's age for several months now” using the output device 140.
  • step S102 of FIG. 2 the instruction unit 111 presents a question “How many correct answers are you using?” Using the output device 140 (step S401).
  • the medical staff answers "zero" by voice from the microphone, or touches the "0" key button on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "zero” or the touch of "0" ("0" in step S401), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of "consciousness disorder-question" based on the recognition result. Determined as 2 points. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S401 if the patient's correct answer is one, the medical staff answers "one" by voice from the microphone, or touches the "1" key button on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "one” or the touch of "1" ("one" in step S401), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of "consciousness disorder-question" based on the recognition result. Determined as 1 point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S401 if the patient's correct answers are two, the medical staff answers "two" by voice from the microphone, or touches the "2" key button on the display screen of the display with a touch panel. As a result, in step S103 in FIG. 2, the reaction recognition unit 112 recognizes the "two” voice or the "2" touch ("two" in step S401), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of "consciousness disorder-question" based on the recognition result. Judge as 0 points. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S401 it is assumed that the medical staff gets lost in the judgment and the elapsed time passes the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 sets 2 as the score for the item “consciousness disorder-question”. Select points and output.
  • FIG. 12 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item of “1c.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of "Please shake hands with the open / close eye. If it can not be done, replace it with another operation.” Using the output device 140. .
  • step S102 of FIG. 2 the instruction unit 111 presents a question of "how many operations are possible?" Using the output device 140 (step S501).
  • the medical staff answers "0" as a voice from the microphone, or touches the "0" key button on the display screen of the display with a touch panel.
  • step S103 in FIG. 2 the reaction recognition unit 112 recognizes the voice of "zero” or the touch of "0" ("0" in step S501), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of "consciousness disorder-obedience" based on the recognition result. It is judged as 2 points. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S501 if the patient's action is one, the medical staff answers "one” by voice from the microphone or touches the "1" key button on the display screen of the display with a touch panel.
  • step S103 in FIG. 2 the reaction recognition unit 112 recognizes this "one” voice or a "1" touch ("one” in step S501), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of "consciousness disorder-obedience" based on the recognition result. It is judged as one point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S501 if the patient's motion is two, the medical staff answers "two” by voice from the microphone, or touches the "2" key button on the display screen of the display with a touch panel. As a result, in step S103 of FIG. 2, the reaction recognition unit 112 recognizes the “two” voice or the “2” touch (“two” in step S501), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of "consciousness disorder-obedience" based on the recognition result. , 0 point is determined. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S501 it is assumed that the medical staff gets lost in judgment and the elapsed time passes the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 sets the score for the item “consciousness disorder-obedience” as Select 2 points and output.
  • FIG. 13 is a flowchart showing guidance and questions instructed from the instruction unit 111 for the item “2. Best gaze”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “Please keep an eye on the top, bottom, left, and right with a finger” using the output device 140. Subsequently, in step S102 of FIG. 2, the instruction unit 111 presents a question of “do you have co-biased vision?” Using the output device 140 (step S601).
  • step S601 the medical staff judges that "the joint bias is not present”
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S601), and outputs the recognition result.
  • step S105 since this question is not the last question of this item (No in step S105 in FIG. 2), the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. Does the eye follow the finger at all? "And presents the question (step S602).
  • step S602 it is assumed that the medical staff determines that "the eye does not follow the finger at all” (Yes in step S602). In this case, the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel. As a result, in step S103 of FIG. 2, the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S602), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “best gaze” to 2 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S602 it is assumed that the medical staff judges that "the eye is following a finger" (No in step S602). In this case, the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel. As a result, in step S103 of FIG. 2, the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S602), and outputs the recognition result.
  • step S105 in FIG. 2 since this question is not the last question of this item (No in step S105 in FIG. 2), the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. Do you look at your finger in all directions? "And present the question (step S603).
  • step S603 the medical staff judges that "the finger is completely traced with eyes in all directions” (Yes in step S603).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S603), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “best gaze” to 0 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S603 it is assumed that the medical staff determines that "the finger is not seen in all directions in all directions” (No in step S603).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (YNo in step S603), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “best gaze” to 1 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step 601 determines that “joint bias is present” in step 601 (Yes in step S601).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S601), and outputs the recognition result.
  • step S105 in FIG. 2 the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. Do you want to follow your finger with your eyes at all? "
  • the medical staff determines that "the eye does not follow the finger at all” (Yes in step S604).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S604), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “best gaze” to 2 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S604 the medical staff judges that "the eye is following a finger” in step S604 (No in step S604).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (No in step S604), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “best gaze” to 1 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S603 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs one point as a score for the item of “best gaze”.
  • step S604 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 2 points as the score for the item of “best gaze”.
  • FIG. 14 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item “3. field of view” and a display example on the display screen of the display device with a touch panel.
  • the instruction unit 111 uses the output device 140 to say “full blind” in the case of full blindness. "Please touch the department” and present the guidance and questions.
  • this item as shown in FIG. 14, on the display screen of the display with a touch panel, images in which the numbers of 1 to 6 are written for the left eye and the right eye are displayed.
  • the medical staff observes the patient and touches the defect part of the display image.
  • the reaction recognition unit 112 outputs a touch signal corresponding to the touched part as a recognition result (step S103 in FIG. 2).
  • this touch operation corresponds to the last question of this item (Yes in step S105 of FIG. 2), so the score determination unit 113 uses this touch signal (recognition result). Based on the score automatically calculated and output.
  • the score determination unit 113 selects and outputs the highest score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • FIG. 15 is a flowchart showing guidance and questions instructed from the instruction unit 111 for the item “4. facial palsy”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “Don't put your face on the face” using the output device 140.
  • step S102 of FIG. 2 the instruction unit 111 presents a question "is there a paralysis?" Using the output device 140 (step S701).
  • the medical staff judges that the patient's face is not paralyzed, the medical staff can answer "Yes” by voice from the microphone or touch the "Yes” icon on the display screen of the display with touch panel. Do.
  • step S103 of FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S701), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “face palsy” to 0 based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the medical staff may answer "No” by voice from the microphone or "No" on the display screen of the touch panel display device. Touch
  • the instruction unit 111 presents the question "Is the face completely paralyzed?" Step S102 of 2 and Step S702 of FIG.
  • the medical staff may answer "Yes” by voice from the microphone or "Yes” on the display screen of the touch panel display. Touch the icon.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S702), and outputs the recognition result.
  • the point determination unit 113 determines three points for the item of “face palsy” based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the medical staff may answer "No” by voice from the microphone or on the display screen of the display with touch panel. Touch "No” on
  • the instruction unit 111 presents the question "Is your face paralyzed more than half?" Step S102 of 2 and Step S703 of FIG.
  • the medical staff may answer "Yes” by voice from the microphone or "Yes” on the display screen of the touch panel display. Touch the icon.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S703), and outputs the recognition result.
  • the point determination unit 113 determines two points for the item of “face palsy” based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S703 if it is determined in step S703 that the medical staff has not paralyzed more than half of the patient's face, the medical staff may answer "No" by voice from the microphone or on the display screen of the display with touch panel Touch the "No" icon.
  • the point determination unit 113 determines one point for the item of “face palsy” based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S703 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 2 points as the score for the item of “face palsy”.
  • the instruction unit 111 first determines the medical staff's condition of the patient as the first of a plurality of questions for this specific item. Ask a question that is easy to judge (in this example "Is there a paralysis?"). Then, the instruction unit 111 makes it difficult for the medical staff to determine the condition of the patient as the last of a plurality of questions for this particular item (in this example, "is it more than half of the face?") To indicate.
  • FIG. 16 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item “5.
  • step S101 of FIG. 2 the instruction unit 111 uses the output device 140 to "go from the healthy leg. Please start after floating the wrist and elbow in the air. If it can not be tested, it can not be tested” Please give me guidance. Subsequently, in step S102 of FIG. 2, the instruction unit 111 presents a question “Are you resistant to gravity?” Using the output device 140 (step S801).
  • step S801 the medical staff judges that the upper limbs of the patient are "against gravity" (Yes in step S801).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 of FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (No in step S801), and outputs the recognition result.
  • step S105 in FIG. 2 since this question is not the last question of this item (No in step S105 in FIG. 2), the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. The question "Will it fall to hit the bed?” Is presented (step S802).
  • step S802 it is assumed that the medical staff determines that the upper limbs of the patient "fall in a manner to hit the bed” (Yes in step S802).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S802), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of upper limb” based on the recognition result, 2 Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S802 it is assumed that the medical staff determines that the upper limbs of the patient "do not fall so as to hit the bed" (No in step S802). In this case, the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel. As a result, in step S103 of FIG. 2, the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S802), and outputs the recognition result.
  • step S105 in FIG. 2 since this question is not the last question of this item (No in step S105 in FIG. 2), the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140.
  • step S803 the medical staff determines that the patient "holds the upper limb for 10 seconds" (Yes in step S803).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 in FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S803), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “exercise of upper limbs” to 0 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S803 it is assumed that the medical staff determines that the patient "does not hold the upper limbs for 10 seconds" (No in step S803).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S803), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of upper limb” based on the recognition result, 1 Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S801 the medical staff judges that the upper limbs of the patient "do not resist gravity" in the above step S801 (No in step S801).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S801), and outputs the recognition result.
  • step S105 in FIG. 2 since this question is not the last question of this item (No in step S105 in FIG. 2), the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. "Does it not move at all?" The question is presented (step S804).
  • step S804 the medical staff judges that the upper limbs of the patient "do not move at all” (Yes in step S804).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 in FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S804), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of upper limb” based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S804 the medical staff judges that the upper limbs of the patient "do not move at all" in step S804 (No in step S804).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S804), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of upper limb” based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs one point as a score for the item “exercise of upper limb”.
  • step S804 it is assumed that the medical staff gets lost in judgment and the elapsed time passes the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 4 points as the score for the item of “exercise of upper limb”.
  • FIG. 17 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item “6. Exercise of lower limbs”.
  • step S101 of FIG. 2 the instruction unit 111 uses the output device 140 to "go from the healthy leg. Please start after floating the wrist and elbow in the air. If it can not be tested, it can not be tested” Please give me guidance. Subsequently, in step S102 of FIG. 2, the instruction unit 111 presents a question “Are you resistant to gravity?” Using the output device 140 (step S901).
  • step S901 the medical staff judges that the patient's lower limbs are "against gravity” (Yes in step S901).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S901), and outputs the recognition result.
  • Step S902 the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. Ask the question "Do you fall like hitting a bed?” (Step S902).
  • step S902 it is assumed that the medical staff determines that the patient's lower limbs “fall to hit the bed” (Yes in step S902).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S902), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of lower limbs” based on the recognition result as 2 Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S902 it is assumed that the medical staff determines that the patient's lower extremity "is not falling so as to hit the bed" (No in step S902). In this case, the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel. As a result, in step S103 of FIG. 2, the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S902), and outputs the recognition result.
  • step S903 since this question is not the last question of this item (No in step S105 in FIG. 2), the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. The question is asked "Hold for 5 seconds?" (Step S903).
  • step S903 the medical staff judges that the patient holds the lower leg “for 5 seconds” (Yes in step S903).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S903), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “exercise of lower limbs” to 0 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S903 it is assumed that the medical staff judges that the patient "has not held the lower leg for 5 seconds" (No in step S903).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S903), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of lower limbs” by 1 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S901 the medical staff judges that the patient's lower limbs "does not resist gravity" in the above step 901 (No in step S901).
  • the medical staff answers "No” by voice from the microphone or touches the "No” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S901), and outputs the recognition result.
  • step S904 the instruction unit 111 returns to step S102 in FIG. 2 and continues to use the output device 140. "Does it not move at all?" The question is presented (step S904).
  • step S904 it is assumed that the medical staff judges that the patient's leg does not move at all (Yes in step S904).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S904), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of lower extremity” based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S904 the medical staff judges that the patient's leg does not move at all at step S904 (No at step S904).
  • the medical staff answers "No” by voice from the microphone or touches the "No" icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "No” or the touch of "No” (No in step S904), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “exercise of lower limbs” based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2). In the case of this example, since the response of “No” is higher in score than the response of “Yes”, the score determination unit 113 selects and outputs one point as a score for the item of “exercise of lower extremity”.
  • step S904 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 4 points as the score for the item of “exercise of upper limb”.
  • FIG. 18 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item “7. Ataxia” and a display example on the display screen of the display with a touch panel.
  • the instruction unit 111 uses the output device 140 to provide guidance, "Test the upper and lower limbs from side to side. Touch the part that has not been made.” ,Question.
  • the numbers 1 to 4 are described for the upper left leg, the left lower leg, the upper right leg, and the right lower leg, respectively. The displayed image is displayed.
  • the medical staff observes the patient and touches the undisplayed part of the displayed image.
  • the reaction recognition unit 112 outputs a touch signal corresponding to the touched part as a recognition result (step S103 in FIG. 2).
  • this touch operation corresponds to the last question of this item (Yes in step S105 of FIG. 2), so the score determination unit 113 uses this touch signal (recognition result). Based on the score automatically calculated and output.
  • the score determination unit 113 selects and outputs the highest score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • FIG. 19 is a flowchart showing guidance and questions instructed from the instruction unit 111 for the item “8. sense”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “stimulate a patient with a toothpick” using the output device 140.
  • step S102 of FIG. 2 the instruction unit 111 presents a question of “Is all reaction to the punctured part?” Using the output device 140 (step S1001).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 of FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1001), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “feeling” to 0 based on the recognition result. judge. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the medical staff may answer "No” from the microphone or "on the display screen of the display with touch panel". Touch the "No" icon.
  • step S105 of FIG. 2 the instruction unit 111 presents a question “Is there no reaction at all?” (Step S102 in FIG. 2) and step S1002 of FIG.
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1002), and outputs the recognition result.
  • the score determination unit 113 determines that the score for the item of “feeling” is 2 points based on the recognition result. judge. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1002 the medical staff answers "No” by voice from the microphone or touches the "No" icon on the display screen of the display with touch panel. .
  • the score determination unit 113 determines that the score for the item of “feeling” is one point based on the recognition result. judge. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1002 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 2 points as the score for the item of “feeling”.
  • FIG. 20 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item “9. Best language”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “Please show a picture and ask a question. Let me read the text.” Using the output device 140. Subsequently, in step S102 of FIG. 2, the instruction unit 111 presents a question “Is there no reaction to the question at all?” Using the output device 140 (step S1101). Here, if there is no response from the patient to the question at all, the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel. As a result, in step S103 of FIG. 2, the reaction recognition unit 112 recognizes the voice of “Yes” or the touch of “Yes” (Yes in step S1101), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item of “best language” on the basis of the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the medical staff can answer "No” by voice from the microphone or touch the "No” icon on the display screen of the display with touch panel. Do.
  • the instruction unit 111 since this question is not the last question of this item (No in step S105 of FIG. 2), the instruction unit 111 presents the question "Are you answering the question without any problems?" Step S102 in FIG. 2 and Step S1102 in FIG. 20).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1102), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item “best language” to 0 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the medical staff can answer "No” by voice from the microphone or the "No" icon on the display screen of the display with touch panel Touch
  • step S105 of FIG. 2 the instruction unit 111 presents a question of “Can you understand the issued word?” (FIG. 2) Step S102 of FIG. 20 and step S1103 of FIG.
  • the medical staff judges that the patient can understand the word, the medical staff can answer "Yes” by voice from the microphone or the "Yes” icon on the display screen of the display with touch panel Touch
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1103), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “best language” to 1 based on the recognition result. Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1103 if the medical staff judges that the patient can not understand the word in step S1103, the medical staff answers "No" from the microphone or "on the display screen of the display with touch panel” Touch the "No” icon.
  • the score determination unit 113 determines the score for the item of “best language” based on the recognition result as 2 Determined as a point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1103 it is assumed that the medical staff gets lost in the judgment and the elapsed time passes the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 2 points as the score for the item “best language”.
  • FIG. 21 is a flowchart showing guidance and questions instructed from the instruction unit 111 with respect to the item of “10.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “Please read characters” using the output device 140.
  • step S102 of FIG. 2 the instruction unit 111 presents a question “Can all characters be read without any problem?” Using the output device 140 (step S1201).
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 of FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1201), and outputs the recognition result.
  • the score determination unit 113 sets the score for the item of “arrangement disorder” to 0 based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1201 the medical staff can answer "No” by voice from the microphone or the "No" icon on the display screen of the display with touch panel Touch
  • the instruction unit 111 presents the question, "Can you understand the language that has issued more than half?" (Step S102 in FIG. 2 and Step S1202 in FIG. 21).
  • the medical staff can understand the language spoken by the patient, the medical staff can answer "Yes” by voice from the microphone or touch the "Yes” icon on the display screen of the display with a touch panel. .
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1202), and outputs the recognition result.
  • the score determination unit 113 determines one score for the item of “arrangement disorder” based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • the medical staff can answer "No” by voice from the microphone or "No" on the display screen of the touch panel display device. Touch the icon.
  • the point determination unit 113 determines two points for the item of “arrangement disorder” based on the recognition result. It is determined that Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1202 it is assumed that the medical staff is lost in judgment and the elapsed time has passed the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 2 points as the score for the item of “arrangement disorder”.
  • FIG. 22 is a flowchart showing guidance and a question instructed from the instruction unit 111 with respect to the item “11. Erasure phenomenon and attention disorder”.
  • step S101 of FIG. 2 the instruction unit 111 presents a guidance of “Please stand on the paralyzed side if there is a paralyzed side” using the output device 140.
  • step S102 of FIG. 2 the instruction unit 111 presents a question of “Are there no problems with the instruction?” Using the output device 140 (step S1301).
  • the medical staff can answer "Yes” by voice from the microphone or touch the "Yes” icon on the display screen of the display with a touch panel.
  • step S103 of FIG. 2 the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1301), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item “erasure phenomenon and attention disorder” based on the recognition result. , 0 point is determined. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1301 if the patient has not made a problem, the medical staff answers "No” by voice from the microphone, or touches the "No" icon on the display screen of the display with a touch panel.
  • the instruction unit 111 presents a question of “Do you grasp the middle?” (Step 2 of FIG. 2) S102 and step S1302 of FIG.
  • the medical staff answers "Yes” by voice from the microphone or touches the "Yes” icon on the display screen of the display with a touch panel.
  • the reaction recognition unit 112 recognizes the voice of "Yes” or the touch of "Yes” (Yes in step S1302), and outputs the recognition result.
  • the score determination unit 113 determines the score for the item “erasure phenomenon and attention disorder” based on the recognition result. It is judged as one point. Thereafter, the next item is to be moved (see step S106 in FIG. 2).
  • step S1302 the medical staff answers "No” by voice from the microphone or touches the "No" icon on the display screen of the display with a touch panel.
  • the score determination unit 113 determines the score for the item “erasure phenomenon and attention disorder” based on the recognition result. It is judged as 2 points.
  • step S1302 it is assumed that the medical staff gets lost in judgment and the elapsed time passes the allowable time (Yes in step S104 of FIG. 2).
  • the score determination unit 113 selects and outputs the higher score as the response of the medical staff to the question at this time as the determined score (step S107 in FIG. 2).
  • the score determination unit 113 selects and outputs 2 points as the score for the item of “erasing phenomenon and attention failure”. Do.
  • the above-described patient condition determination devices 100 to 100C may be realized by hardware or software.
  • the patient state determination devices 100 to 100C may be realized by a combination of hardware and software.
  • the program 122 readable by the data processing devices 110 to 110C may be supplied to the patient state determination devices 100 to 100C in a state of being temporarily stored in various computer readable recording media.
  • a recording medium is, for example, a magnetic tape, a magnetic disc, a magneto-optical disc, a CD-ROM (Compact Disc-Read Only Memory), a CD-R (Compact Disc-Recordable), a CD-RW (Compact Disc-Rewritable). , Semiconductor memory.
  • the present invention also includes a form in which some or all of the embodiments and examples described above are appropriately combined, and a form in which the form is appropriately modified.
  • the data processing apparatus includes the time measurement unit, but this may be omitted in the present invention.
  • the problem of measurement time may remain, it is possible to solve the problem of judgment confusion of measurement (judgment) of scoring. This is because appropriate guidance and instructions are given to medical staff.
  • a "help” button may be displayed on the display screen of the display device with a touch panel.
  • the item "determined score” for the similar patient in the past is scored with the item indicated in the past and scored by the skilled medical staff in the past. Is displayed on the display screen. This enables inexperienced medical staff to appropriately score while referring to the displayed contents.
  • the counting device 200 merely receives the scores determined from the patient state determination device and only counts the scores, but the present invention is not limited thereto. That is, the present invention may be applied to an electronic medical record system provided with a medical record database instead of the counting device 200.
  • each of the patient state determination devices 100A to 100C uses the patient ID and the record information (designated item, determined score, and elapsed time) recorded in the score / time recording unit 126 of the storage devices 120A and 120B.
  • the information is linked and wirelessly transmitted to the electronic medical record system via the communication interface 150.
  • the electronic medical record system records (transcribes) the received record information (patient ID is linked) together with the counting result in the corresponding patient ID column of the medical record database.
  • each of the patient state determination devices 100A to 100C records the record information (designated item, determined in the score / time recording unit 126 of the storage devices 120A and 120B).
  • the score and elapsed time are linked with the patient ID and written to an external recording medium via the connector.
  • the information recorded in the external recording medium is read through the connector provided in the electronic medical record system, and the read information is, together with the counting result, the corresponding patient of the medical record database. Record (post) in the ID column.
  • An instruction unit that instructs the medical staff to sequentially indicate a plurality of items to be measured for the patient;
  • a reaction recognition unit that recognizes a response from the medical staff to an instructed item and outputs a recognition result;
  • a score determination unit that determines a score for the instructed item based on the recognition result, and outputs the determined score;
  • the patient condition determination apparatus wherein the instruction unit presents each of the plurality of items to the medical staff in the form of at least one question associated with the items.
  • the reaction recognition unit includes voice recognition means for receiving an answer voice uttered from the medical staff as the reaction, identifying the answer voice, and outputting an identification result as the recognition result. Or the patient state determination apparatus as described in 2.
  • the patient condition determination apparatus according to any one of appendices 1 to 3, further comprising a time measurement unit that measures an elapsed time from a start time at which an instruction of each item is started to the medical staff.
  • an allowable time is set in advance. If the response is not obtained from the medical staff when the elapsed time exceeds the allowable time, the score determination unit determines the higher score as the response to the question at the time, The patient state determination device according to appendix 4, which selects and outputs as the determined score.
  • the patient state determination apparatus further comprising: a point / time recording unit which associates the determined point and the elapsed time with the instructed item and records the item as recording information.
  • the instruction unit changes the notification content to be instructed to the medical staff in the current measurement based on the recording information recorded in the score / time recording unit.
  • the patient condition determination device according to claim 1.
  • the patient state determination device according to claim 6, further comprising a measurement state recording unit that records the measurement state of the patient.
  • the instruction unit performs the current measurement based on the recording information recorded in the score / time recording unit and the measurement state recorded in the measurement condition recording unit.
  • Appendix 9 The patient condition determination apparatus according to appendix 9, which changes notification content to be instructed to medical staff.
  • an allowable time is set in advance. If the response is not obtained from the medical staff when the elapsed time exceeds the allowable time, the condition is similar to the condition of the patient from a similar case database in which a plurality of similar cases are stored in advance.
  • the patient state determination device further comprising a similar case extraction unit that extracts one similar case and presents the extracted similar case to the medical staff.
  • the instruction unit At the beginning of the plurality of questions on the particular item, the medical staff indicates a question that is easy to determine the condition of the patient, At the end of the plurality of questions on the particular item, the medical staff indicates a question that is difficult to determine the condition of the patient,
  • the patient condition determination apparatus according to any one of appendices 1 to 12.
  • the patient condition determination apparatus according to any one of appendices 1 to 14, A counting device that receives the determined points from the patient state determination device and counts the points;
  • Patient condition determination system including:
  • the instruction unit sequentially instructs the medical staff on a plurality of items to be measured for the patient,
  • the reaction recognition unit recognizes a reaction from the medical staff to the instructed item, and outputs a recognition result.
  • a score determination unit determines a score for the instructed item based on the recognition result, and outputs the determined score.
  • the patient condition determination method wherein the instruction unit presents each of the plurality of items to the medical staff in the form of at least one question associated with the items.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本発明は、医療スタッフの業務を改善することを課題とする。患者状態判定装置は、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示部と、指示された項目に対する、医療スタッフからの反応を認識して、認識結果を出力する反応認識部と、認識結果に基づいて指示された項目に対する点数を判定し、判定した点数を出力する点数判定部と、を備える。指示部は、複数の項目の各々を、この項目に関連付けられた少なくとも1つの質問の形式で、医療スタッフに提示する。

Description

患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体
 本発明は、患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体に関する。
 病院(特に、救急病院)においては、医師や看護師などの医療関係者(以下、「医療スタッフ」と呼ぶ)が、救急車等によって救急搬送されて来た患者の状態を測定(判定)することが必要となる事態がしばしば発生する。救急搬送されて来た患者には、脳血管障害などの疑いがあることが推測される。そのような状況においては、医療スタッフは、リアルタイムで、その患者の状態(例えば、麻痺、失調など)を把握することが必要になる。
 そのような脳血管障害の疑いのある患者の状態を測定(判定)する測定手法は、この技術分野において知られている。その測定手法の1つとして、NIHSS(National Institute of Health Stroke Scale)がある。このNIHSSでは、患者の来院時、治療前および治療時に、担当の医療スタッフは、最短で15分の測定周期ごとに、当該患者の状態を測定(判定)することが必要となる。何故なら、患者の状態は、患者の治療方針に関わるからである。NIHSSには、測定(判定)すべき項目として13項目があることが知られている。したがって、医療スタッフは、NIHSSの各項目について点数を選択するという作業(業務)を、上記測定周期毎に測定時間(判定時間)内で行うことが必要となる。尚、各項目の点数を合計すると42点になる。また、その測定時間(判定時間)は、上記測定周期に比較してなるべく短いことが望ましく、例えば、3分であることが好ましい。
 本発明に関連する技術が、種々提案されている。
 たとえば、特許文献1は、一人以上の被験者(患者)を、一人以上の被験者(患者)と関連付けられる健康状態を示す1つ以上のカテゴリに分類するシステムを開示している。特許文献1では、健康状態スコアは、NIHSSスコアなどの脳卒中スコアに対応してよいことを記載している。特許文献1では、NIHSSスコアを4つのカテゴリに分類し、それにより、医師が、脳卒中の重症度を、被験者が分類されているカテゴリに基づいて、判定する例を記載している。
 特許文献2は、患者の診断を遠隔地にいる医師等が行う遠隔地医療システムを開示している。特許文献2では、遠隔地医療システムの一例として、医療現場にて電子聴診器を用いて患者(被測定者)の生体音を測定するためのシステムであって、取得された電子データすなわち生体音情報を記録するためのシステムを記載している。このような遠隔地医療システムでは、医療現場から遠隔にいる医師等の診断者が、上記生体音情報を閲覧して、患者の診断に利用することが可能となる。特許文献2に開示された測定支援装置においては、表示部に、測定者の測定活動を支援する情報(測定シナリオ)を表示したり、操作画面をGUI(Graphical User Interface)画面として表示している。特許文献2では、測定シナリオの内容を反映した測定支援画面の一例を示している。測定支援画面には、測定シナリオに含まれる聴診手順が表示される出力領域と、聴診領域可視化情報が表示される出力領域とがある。測定者は、画像データを確認し、測定支援画面にしたがって聴診を開始する。患者の生体音を取得し終えると、測定者は、ボタンをタップする。
特開2016-157430号公報 特開2014-023715号公報
 上述したNIHSSにおいて、医療スタッフ(特に、未熟で経験の浅い医療スタッフ)は、各項目の点数の選択の判断に迷う場合がある。その結果、NIHSSの測定(判定)に時間がかかる恐れがある。そこで、このような医療スタッフにおける測定(判定)の判断困惑の問題を解決したり、測定時間(判定時間)を短縮することが望まれている。
 しかしながら、上述した特許文献1~2では、このような課題を解決できない。
 すなわち、特許文献1は、単に、NIHSSスコアの範囲を、複数のカテゴリに分類する技術的思想を開示しているだけである。したがって、特許文献1においては、医療スタッフは、相変らず、上記NIHSSの各項目について点数を選択するという作業(業務)をしなければならず、測定(判定)の判断困惑や測定時間(判定時間)の課題を解決することはできない。
 一方、特許文献2は、患者に対して測定者が測定(聴診)を行い、遠隔の医師が聴診結果を利用して診断を行う遠隔測定システムを開示しているに過ぎない。このような遠隔測定システムでは、測定者は、測定シナリオに従って、電子聴診器等の測定器具を使用して、患者に対して適切な測定をしているだけである。上述したように、NIHSSでは、測定するだけなく、各項目について点数を選択しなければならない。よって、特許文献2の遠隔測定システムであっても、測定者である医療スタッフは、相変らず、点数の選択の判断に迷ってしまうことになる。よって、特許文献2においても、測定(判定)の判断困惑や測定時間(判定時間)の課題を解決することはできない。
 本発明の目的は、上述の課題を解決し、医療スタッフの業務を改善できる患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体を提供することにある。
 本発明の患者状態判定装置は、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示部と;指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力する反応認識部と;前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力する点数判定部と;を備え、前記指示部は、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示する、ことを特徴とする。
 本発明の患者状態判定システムは、上記患者状態判定装置と、該患者状態判定装置から前記判定した点数を受けて、前記点数を集計する集計装置と、を含む。
 本発明の患者状態判定方法は、指示部が、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示し;反応認識部が、指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力し;点数判定部が、前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力し;前記指示部は、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示する、ことを特徴とする。
 本発明の患者状態判定プログラム記録媒体は、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示手順と;指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力する反応認識手順と;前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力する点数判定手順と;をコンピュータに実行させる患者状態判定プログラムを記録した記録媒体であって、前記指示手順は、前記コンピュータに、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示させる。
 本発明によれば、医療スタッフの業務を改善することができる。
本発明の第1の実施形態に係る患者状態判定システムの構成を示すブロック図である。 図1に示した患者状態判定装置の動作の流れを示すフローチャートである。 本発明の第2の実施形態に係る患者状態判定システムの構成を示すブロック図である。 本発明の第3の実施形態に係る患者状態判定システムの構成を示すブロック図である。 図4に示した患者状態判定装置の動作の流れを示すフローチャートである。 図4に示した患者状態判定装置において、測定開始前に、フィードバックして指示部で指示すべき通知内容を変更する動作を説明するフローチャートである。 本発明の第4の実施形態に係る患者状態判定システムの構成を示すブロック図である。 図7に示した患者状態判定装置の動作の流れを示すフローチャートである。 NIHSSの13項目を示す図である。 「1a.意識水準」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「1b.意識障害-質問」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「1c.意識障害-従命」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「2.最良の注視」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「3.視野」の項目に対して、指示部から指示される、ガイダンスおよび質問と、タッチパネル付き表示装置の表示画面上の表示例とを示すフローチャートである。 「4.顔面麻痺」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「5.上肢の運動」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「6.下肢の運動」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「7.運動失調」の項目に対して、指示部から指示される、ガイダンスおよび質問と、タッチパネル付き表示装置の表示画面上の表示例とを示すフローチャートである。 「8.感覚」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「9.最良の言語」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「10.講音障害」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。 「11.消去現象と注意障害」の項目に対して、指示部から指示される、ガイダンスおよび質問を示すフローチャートである。
 以下、図面を参照しながら、本発明の実施形態について詳細に説明する。なお、各図において、同一または相当する部分には同一の符号を付して、重複部分については適宜説明を省略する。
[第1の実施形態]
 図1は、本発明の第1の実施形態に係る患者状態判定システムの構成を示すブロック図である。図1に示すように、患者状態判定システムは、患者状態判定装置100と、集計装置200とを備える。患者状態判定装置100と集計装置200とは同じ装置上にあってもよい。
 本第1の実施形態では、次の場合を想定している。図示の患者状態判定システムでは、看護師や医師などの医療スタッフが、測定周期毎にリアルタイムで患者の状態を測定(判定)する場合を想定している。この場合において、患者は、例えば、救急車等で救急搬送されて来た患者であってよい。このような患者では、脳血管障害などの障害の疑いがある。測定周期は、例えば、最短で15分である。また、患者の状態とは、例えば、麻痺や失調などである。測定周期毎に、医療スタッフは、測定時間(判定時間)内に患者の状態を複数の項目の各々について点数を選択する作業を行う必要がある。複数の項目は、上記NIHSSで規定された13の項目であってよい。NIHSSで規定された13の項目については、後で図面を参照して詳述する。測定時間(判定時間)は、上記測定周期に比較してなるべく短いことが望ましく、例えば、3分であることが好ましい。
 患者状態判定装置100は、医療現場で、患者の状態を自動的にリアルタイムで判定できる装置である。尚、患者には患者ID(identifier)が割り当てられているとする。また、医療スタッフには、スタッフID(ユーザID)が割り当てられてもよい。
 患者状態判定装置100は、データを処理するデータ処理装置110と、後述するプログラムやデータを記憶する記憶装置120と、データを入力する入力装置130と、データを出力する出力装置140と、通信インターフェース150とを備える。このような患者状態判定装置100は、例えば、タブレットPC(personal computer)で実現されてよい。
 出力装置140は、LCD(Liquid Crystal Display)やPDP(Plasma Display Panel)などの表示装置やプリンタ、受話器からなる。受話器は、イヤホンやヘッドホンであってよい。出力装置140は、後述するような、各項目に関連付けられた複数の質問や操作メニューなどの各種情報を表示装置の画面上に表示したり、複数の質問の各々を受話器から音声で知らせたり、最終結果をプリンタに印字する機能を有する。
 記憶装置120は、各種のデータを保持できる記憶媒体である。例えば、記憶装置120は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶媒体や、ROM(read only memory)やRAM(random access memory)などのメモリからなる。記憶装置120は、データ処理装置110における各種処理に必要な処理情報(後述する)やプログラム122を記憶する機能を有する。
 データ処理装置110は、MPU(micro processing unit)などのマイクロプロセッサやCPU(central processing unit)からなる。データ処理装置110は、記憶装置120からプログラム122を読み込んで、プログラム122に従ってデータを処理する各種処理部を実現する機能を有する。
 入力装置130は、例えば、キーボード、マウス、タッチパネルや、マイクロホンからなる。また、入力装置130は、患者の状態を測定するための各種センサを備えてもよい。そのようなセンサは、例えば、患者に取り付けられる腕時計型センサやバイタルセンサ、患者の状態を撮像するカメラであってよい。なお、本実施形態においては、入力装置130がタッチパネルを含み、出力装置140が表示装置を含む場合、それらは一体に形成されて、タッチパネル付き表示装置として構成されてよい。
 通信インターフェース150は、有線又は無線等を介して、当該患者状態判定装置100と後述する集計装置200との間を接続するインターフェースである。通信インターフェース150は、例えば、送信機やトランシーバ、又はコネクタで実現される。通信インターフェース150が送信機からなる場合、送信機は、データ処理装置110での処理結果(具体的には、後述する判定した点数)で搬送波を変調し、変調した波を送信波として無線で集計装置200へ送信する。通信インターフェース150がコネクタからなる場合、図示しない記録媒体を用いてもよい。この場合、上記処理結果(判定した点数)は、患者IDを付加した状態で、コネクタを介して記録媒体に記録情報として書き込まれる。
 なお、医療スタッフは、患者の状態を測定(判定)する際に、当該患者に対して処置を施すことが必要となる場合がある。したがって、上記受話器および上記マイクロホンの組み合わせとして、マイク付きイヤホンやマイク付きヘッドホンを用いることが好ましい。或いは、患者状態判定装置100は、その患者を搭載している搬送台(ベッド)に据え置かれてもよい。
 尚、本実施形態では、医療スタッフに対する指示や医療スタッフの反応として、音声と画像(テキストデータ)との両方を用いている。したがって、入力装置130と出力装置140との組み合わせとして、マイク付きイヤホンとタッチパネル付き表示装置とを備えている。しかしながら、本発明は、医療スタッフに対する指示や医療スタッフの反応として、画像(テキストデータ)のみを用いてもよい。
 記憶装置120は、項目記憶部124を備える。この項目記憶部124には、上記測定時間(判定時間)に、患者の状態を測定するために必要な複数の項目を、各項目に関連付けられた複数の質問の形式で、順序に従って予め記憶されている。本実施形態では、項目記憶部124は、複数の質問を、音声データおよびテキストデータとして、格納している。また、複数の項目には、それぞれ、許容時間が予め設定されている。これら許容時間は、均一であっても異なってもよい。本実施形態では、許容時間は均一である。項目記憶部124には、許容時間も、項目毎に紐付けて記憶されている。
 このような音声データやテキストデータは、例えば、所定のデータベースから読み出して、上記測定時間(判定時間)の開始時刻直前において、必要な情報のみを項目記憶部124に予め記憶させてよい。その代わりに、患者状態判定装置100がその患者の搬送台(ベッド)に据え置かれている場合には、次のようにしてもよい。まず、図示しないコントロールセンタから、上記測定時間(判定時間)の開始時刻直前に、所定のデータベースからその患者用に必要な複数の項目(音声データやテキストデータ)を読出して、患者状態判定装置100へ送信する。患者状態判定装置100は、その送信された必要な複数の項目を受信するための受信機(図示せず)を備え、その受信した必要な複数の項目を項目記憶部124へ格納してもよい。なお、本例の場合、必要な複数の項目は、上記NIHSSで規定された13の項目であるので、予め決まっている。したがって、その代わりに、項目記憶部124を用いずに、患者状態判定装置100は、受信機で受信した必要な複数の項目を、直接、データ処理装置110の指示部111(後述する)へ供給してもよい。
 データ処理装置110は、主な処理部として、指示部111と、反応認識部112と、点数判定部113と、時間測定部114と、制御部118とを備えている。
 指示部111は、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する。反応認識部112は、指示された項目に対する、医療スタッフからの反応を認識して、認識結果を出力する。点数判定部113は、認識結果に基づいて指示された項目に対する点数を判定し、判定した点数を出力する。指示部111は、複数の項目の各々を、その項目に関連付けられた少なくとも1つの質問の形式で、医療スタッフに提示する。このとき、指示部111は、項目毎に上記許容時間を医療スタッフに提示してもよい。時間測定部114は、医療スタッフに対して各項目の指示を開始した開始時刻からの経過時間を測定する。制御部118は、データ処理装置110全体の動作を制御する。以下、各処理部の動作について、更に、詳細に説明する。
 指示部111は、項目記憶部124から読み出された音声データを、出力装置140のマイク付きイヤホンへ送出する。マイク付きイヤホンのイヤホンは、音声データを質問音声に変換する。したがって、指示部111と出力装置140のイヤホンとの組み合わせは、複数の項目を、順次、質問音声にて医療スタッフに知らせる音声通知手段として働く。また、項目記憶部124と指示部111と出力装置140のイヤホンとの組み合わせは、患者の状態を測定するために必要な複数の項目を順次、音声によって医療スタッフに提示する提示部として作用する。
 と同時に、指示部111は、項目記憶部124から読み出されたテキストデータを、出力装置140のタッチパネル付き表示装置へ送出する。タッチパネル付き表示装置は、テキストデータをその表示画面上に表示する。したがって、指示部111と出力装置140のタッチパネル付き表示装置との組み合わせは、複数の項目を、順次、質問テキストデータとして医療スタッフに知らせるテキスト通知手段としても働く。よって、項目記憶部124と指示部111と出力装置140のタッチパネル付き表示装置との組み合わせは、患者の状態を測定するために必要な複数の項目を順次、画像(テキストデータ)によって医療スタッフに提示する提示部として作用する。
 出力装置140のマイク付きイヤホンのイヤホンから発生された質問音声に応答して、医療スタッフは、それに対する回答(応答)を入力装置130のマイク付きイヤホンのマイクロホンに向けて発声する。例えば、イヤホンから質問音声として「反応はありますか?」と流れたとする。この場合、医療スタッフは、例えば、マイクロホンに向けて「はい」と音声で回答(応答)する。マイクロホンは、この「はい」の回答音声を電気信号である回答音声信号の入力値に変換する。したがって、マイク付きイヤホンのマイクロホンは、指示された項目に応答して医療スタッフが発声する回答音声を入力して、入力値(回答音声信号)を出力する入力部として働く。
 と同時に、出力装置140のタッチパネル付き表示装置に表示された質問テキストデータに応答して、医療スタッフは、それに対する回答(応答)を、入力装置130であるタッチパネル付き表示装置のタッチパネルを操作して入力する。ここでは、タッチパネル付きタッチパネルには、「Yes」および「No」のアイコンが表示されているとする。例えば、タッチパネル付き表示装置に表示された質問テキストデータが「反応はありますか?」であったとする。この場合、医療スタッフは、例えば、タッチパネルの「Yes」のアイコンをタッチして回答(応答)する。タッチパネルは、この「Yes」の回答を示す回答テキスト信号を出力する。したがって、タッチパネル付き表示装置のタッチパネルは、指示された項目に応答して、医療スタッフが回答テキスト信号を入力する入力部として働く。
 このように、本実施形態では、医療スタッフからの反応として、音声と画像(テキストデータ)との両方を利用している。しかしながら、周囲が騒がしい場合等には、質問に対する反応としては、画像(テキストデータ)のみしか利用できない場合が存在する。その場合には、当然、医療スタッフからの反応として画像(テキストデータ)のみを利用することになる。
 入力装置130から、反応として医療スタッフから発声された回答音声信号が、反応認識部112に供給されたとする。反応認識部112は、音声認識部(図示せず)を含む。音声認識部は、回答音声信号を識別して、識別結果を上記認識結果として出力する。例えば、回答音声信号が「はい」を示す音声信号であったとする。この場合、反応認識部112の音声認識部は、認識結果(識別結果)として「Yes」の結果を出力する。
 一方、入力装置130から、反応として医療スタッフで操作(タッチ)された回答信号が、反応認識部112に供給されたとする。この場合、反応認識部112は、その回答テキスト信号を認識して、認識結果を出力する。例えば、回答テキスト信号が「Yes」を示すテキスト信号であったとする。この場合、反応認識部112は、認識結果として「Yes」の結果を出力する。
 この認識結果は点数判定部113に供給される。点数判定部113は、認識結果に基づいて、指示された項目に対する点数を判定する。例えば、指示された項目が「意識レベル」であったとする。この場合、指示部11から、出力装置140を介して医療スタッフへ、患者に対する処置の指示(ガイダンス)とともに「反応はありますか?」の指示がなされる。点数判定部113には、「反応はありますか?」の指示に対応して、反応認識部112から「Yes」または「No」の認識結果が供給される。点数判定部113は、「Yes」または「No」の認識結果に基づいて、「意識レベル」の項目に対する点数(この場合、0点から3点までの間の点数)を判定する。
 集計装置200は、データを処理するデータ処理装置210と、プログラムや後述するデータを記憶する記憶装置220と、通信インターフェース230とを備える。データ処理装置210は、集計部212を含む。
 通信インターフェース230は、有線や無線等を介して、当該集計装置200と前述した患者状態判定装置100との間を接続するインターフェースである。通信インターフェース230は、例えば、受信機やトランシーバ、又はコネクタで実現される。通信インターフェース230が受信機からなる場合、受信機は、患者状態判定装置100の通信インターフェース(送信機)150から送信された送信波を受信波として受信する。受信機は、受信波を復調して、上記処理結果(判定した点数)を再生する。通信インターフェース230がコネクタからなる場合、上記記録媒体からそこに記録されている記録情報(判定した点数と患者ID)が、コネクタを介して読み出される。
 通信インターフェース230から、再生された(読み出された)判定した点数は、データ処理装置210に供給される。データ処理装置210の集計部212は、その点数を集計する。集計部212は、集計した結果を記憶装置220に記憶する。
 次に、第1の実施形態の効果について説明する。上述のとおり、本第1の実施形態に係る患者状態判定装置100は、患者の状態を、医療スタッフがその点数付けに迷うことなく、比較的短い測定時間(判定時間)で、適切に判定することが可能となる。その理由、適切なガイダンスおよび指示を医療スタッフに対して行っているからである。
[患者状態判定装置の動作]
 図2は、図1に示した患者状態判定装置100の動作の流れを示すフローチャートである。以下、図1および図2を参照しつつ、患者状態判定装置100の動作の流れについて説明する。
 まず、指示部111は、項目記憶部124から項目を読み出して、その項目のガイダンスを、出力装置140の受話器および表示装置から提示させる(ステップS101)。このとき、指示部111は、その項目に設定された許容時間を表示装置の表示画面上に提示させてもよい。と同時に、制御部118は、時間測定部114を起動して、時間測定部114に当該指示を開始した開始時刻からの経過時間を測定させる。
 引き続いて、指示部111は、その項目の質問を、出力装置140のイヤホンおよび表示装置を用いて、質問音声および質問テキストデータとして、提示させる(ステップS102)。
 この質問音声および質問テキストデータに応答して、医療スタッフは、入力装置130のマイクロホンから回答音声を発声し、または、入力装置130のタッチパネルを操作して回答を入力する。反応認識部112は、この回答音声信号または回答テキスト信号を認識(確認)し、認識結果(確認結果)を出力する(ステップS103)。
 制御部118は、時間測定部114で測定された経過時間が上記許容時間を経過しているか否かを判断する(ステップS104)。経過時間が許容時間を経過していない場合(ステップS104のNo)、制御部118は、質問が項目最後の質問であるか否かを判断する(ステップS105)。最後の質問でなければ(ステップS105のNo)、制御部118は、指示部111に対して次の質問を提示させる(ステップS102)。最後の質問であれば(ステップS105のYes)、点数判定部113は、それまでの認識結果に基づいて、その項目に対する点数を判定し、制御部118は次の項目へ移るように指示部111を制御する(ステップS106)。
 時間測定部114で測定された経過時間が許容時間を経過している場合(ステップS104のYes)、点数判定部113は、その時点での質問に対してする反応として高い方の点数を、判定した点数として選択し出力し(ステップS107)、制御部118は次の項目へ移るように指示部111を制御する(ステップS106)。
[第2の実施形態]
 図3は、本発明の第2の実施形態に係る患者状態判定システムの構成を示すブロック図である。図3に示すように、患者状態判定システムは、患者状態判定装置100Aと、集計装置200とを備える。
 患者状態判定装置100Aは、データ処理装置での処理内容と記憶装置の記憶内容とが後述するように相違する点を除いて、図1に示した患者状態判定装置100と同様の構成を有し、動作をする。したがって、データ処理装置および記憶装置に、それぞれ、110Aおよび120Aの参照符号を付してある。図1に示したものと同様の機能を有するものには同一の参照符号を付して、以下では、説明の簡略化のために相違点についてのみ説明する。
 データ処理装置110Aは、指示部111および制御部118の代わりに、指示部111Aおよび制御部118Aを備えている点を除いて、図1に示したデータ処理装置110と同様の処理動作を行う。一方、記憶装置120Aは、点数・時間記録部126を更に備えている点を除いて、図1に示した記憶装置120と同様の構成を有し、動作をする。すなわち、記憶装置120Aは、プログラム122と、項目記憶部124と、点数・時間記録部126とを備える。
 点数・時間記録部126は、点数判定部113での判定した点数と時間測定部114での経過時間とを、指示された項目に紐付けて、記録情報として記録する。換言すれば、制御部118Aは、点数判定部113での判定した点数と時間測定部114での経過時間とを、指示された項目に紐付けて、記録情報として点数・時間記録部126に格納する。なお、記録情報として、スタッフID(ユーザID)も記録してもよい。
 指示部111Aは、少なくとも前回を含む過去の測定において、点数・時間記録部126に記録された記録情報に基づいて、今回の測定で医療スタッフへ指示すべき通知内容を変更する。変更する通知内容は、指示された項目に対して設定された許容時間を含む。すなわち、本第2の実施形態では、項目毎に許容時間を調整している。なお、変更する通知内容は、過去における項目に対して付けられた点数を、質問と併せて出力装置140のタッチパネル付き表示装置に表示してもよい。この場合、医療スタッフは、この表示内容をも参考して、反応することが可能となる。その結果、測定時間(判定時間)を短縮することが可能となり、適切な点数付けを行うことも可能となる。
 次に、第2の実施形態の効果について説明する。本第2の実施形態に係る患者状態判定装置100Aは、上記第1の実施形態の場合よりも、測定時間(判定時間)を短縮して、適切な判定することが可能となることである。その理由、過去での測定結果をフィードバックして、指示部111Aが適切なガイダンスおよび指示を医療スタッフに対して行っているからである。
[第3の実施形態]
 図4は、本発明の第3の実施形態に係る患者状態判定システムの構成を示すブロック図である。図4に示すように、患者状態判定システムは、患者状態判定装置100Bと、集計装置200とを備える。
 患者状態判定装置100Bは、データ処理装置での処理内容と記憶装置の記憶内容とが後述するように相違する点を除いて、図3に示した患者状態判定装置100Aと同様の構成を有し、動作をする。したがって、データ処理装置および記憶装置に、それぞれ、110Bおよび120Bの参照符号を付してある。図3に示したものと同様の機能を有するものには同一の参照符号を付して、以下では、説明の簡略化のために相違点についてのみ説明する。
 データ処理装置110Bは、指示部111Aおよび制御部118Aの代わりに、指示部111Bおよび制御部118Bを備えている点を除いて、図3に示したデータ処理装置110Aと同様の処理動作を行う。一方、記憶装置120Bは、測定状態記録部128を更に備えている点を除いて、図3に示した記憶装置120Aと同様の構成を有し、動作をする。すなわち、記憶装置120Bは、プログラム122と、項目記憶部124と、点数・時間記録部126と、測定状態記録部128とを備える。
 図示はしないが、上述したように、患者には腕時計型センサやバイタルセンサが取り付けられると共に、その患者を搬送する搬送台(ベッド)や患者を収容する病室には、患者を撮影するカメラが備えられている。測定状態記録部128は、これらセンサから得られたデータやカメラで撮影された画像を、測定状態として記録する。換言すれば、制御部118Bは、それらセンサから得られたバイタルデータやカメラで撮影された画像を、測定状態として測定状態記録部128に格納する。
 指示部111Bは、少なくとも前回を含む過去の測定において、点数・時間記録部126に記録された記録情報と測定状態記録部128に記録された測定状態とに基づいて、今回の測定で医療スタッフへ指示すべき通知内容を変更する。変更する通知内容は、上記第2の実施形態と同様に、指示された項目に対して設定された許容時間を含む。すなわち、本第3の実施形態でも、項目毎に許容時間を調整している。なお、変更する通知内容としては、過去における項目に対して付けられた点数やバイタルデータ及び患者の画像を、質問と併せて出力装置140のタッチパネル付き表示装置に表示してもよい。この場合、医療スタッフは、これら表示内容をも参考して、反応することが可能となる。その結果、測定時間(判定時間)をさらに短縮でき、より適切な点数付けを行うことも可能となる。
 次に、第3の実施形態の効果について説明する。本第3の実施形態に係る患者状態判定装置100Bは、上記第2の実施形態の場合よりも、測定時間(判定時間)をより短縮して、より適切な判定することが可能となることである。その理由、過去での測定結果や患者の容態をフィードバックして、指示部111Bが適切なガイダンスおよび指示を医療スタッフに対して行っているからである。
[患者状態判定装置の動作]
 図5は、図4に示した患者状態判定装置100Bの動作の流れを示すフローチャートである。以下、図4および図5を参照しつつ、患者状態判定装置100Bの動作の流れについて説明する。
 図5のステップS101~S106の動作は、図2のステップS101~S106と同じであるので、説明を省略する。
 最後の質問であって(ステップS105のYes)、点数判定部113での点数の判定が終わったか、或いは、時間測定部114での経過時間が許容時間を超過して(ステップ104のYes)、点数判定部113での点数の選択(ステップS107)が終わったとする。その後、制御部118Bは、点数判定部113での判定した点数と時間測定部114での経過時間とを、指示された項目に紐付けて、記録情報として点数・時間記録部126に格納する(ステップS108)。
 引き続いて、制御部118Bは、上述したセンサから得られたバイタルデータやカメラで撮影された画像を、測定状態として測定状態記録部128に格納する(ステップS109)。その後、制御部118Bは次の項目へ移るように指示部111Bを制御する(ステップS106)。
 次に、図6を参照して、測定開始前に、フィードバックして指示部111Bで指示すべき通知内容を変更する動作について説明する。
 先ず、制御部118Bは、ユーザID(スタッフID)を確認する(ステップS201)。引き続いて、制御部118Bは、点数・時間記録部126および測定状態記録部128からそれぞれ記録情報および測定状態を読み出して、今までの患者の記録状態を確認する(ステップS202)。制御部118Bは、この記録状態に基づいて、各項目に設定された許容時間の調整を行う(ステップS203)。その後、制御部118Bは、上述したセンサやカメラを起動して、測定状態の記録を開始する(ステップS204)。そして、制御部118Bは、最初の項目から測定を開始するように指示部111Bを制御する(ステップS205)。
[第4の実施形態]
 図7は、本発明の第4の実施形態に係る患者状態判定システムの構成を示すブロック図である。図7に示すように、患者状態判定システムは、患者状態判定装置100Cと、集計装置200とを備える。
 患者状態判定装置100Cは、データ処理装置での処理内容が後述するように相違する点を除いて、図3に示した患者状態判定装置100Aと同様の構成を有し、動作をする。したがって、データ処理装置に110Cの参照符号を付してある。図3に示したものと同様の機能を有するものには同一の参照符号を付して、以下では、説明の簡略化のために相違点についてのみ説明する。
 データ処理装置110Cは、制御部118Aの代わりに制御部118Cを備え、かつ、類似事例抽出部115を更に備えている点を除いて、図3に示したデータ処理装置110Aと同様の処理動作を行う。
 患者状態判定装置100Cは、図示しない類似事例データベースと通信可能に接続されている。類似事例データベースは、複数の類似事例を予め保存しているデータベースである。
 時間測定部114で測定された経過時間が上記許容時間を経過した時点で、医療スタッフから反応が得られなかった場合、類似事例抽出部115は、類似事例データベースから当該患者の状態に類似している1つの類似事例を抽出して、抽出した類似事例を医療スタッフへ提示する。
 次に、第4の実施形態の効果について説明する。本第4の実施形態に係る患者状態判定装置100Cは、上記第2の実施形態の場合よりも、より適切な判定をすることが可能となることである。その理由、医療スタッフに対して過去での類似事例を提示しているからである。
[患者状態判定装置の動作]
 図8は、図7に示した患者状態判定装置100Cの動作の流れを示すフローチャートである。以下、図7および図8を参照しつつ、患者状態判定装置100Cの動作の流れについて説明する。
 図8のステップS101~S106の動作は、図2のステップS101~S106と同じであるので、説明を省略する。図8は、図2のステップS107の代わりに、ステップS110およびS111を有している点で、図2と相違する。
 時間測定部114で測定された経過時間が許容時間を経過している場合(ステップS104のYes)、類似事例抽出部115は、類似事例データベースから当該患者の状態に類似している1つの類似事例を抽出して、抽出した類似事例を、出力装置140のタッチパネル付き表示装置へ表示することにより、提示する(ステップS110)。したがって、医療スタッフは、この表示された類似事例を参考にして、反応することができる。反応認識部112は、この医療スタッフからの反応を認識して、認識結果を出力する(ステップS111)。点数判定部113は、この認識結果に基づいて指定された項目に対する点数を判定し、制御部118Cは次の項目へ移るように指示部111Aを制御する(ステップS106)。
 次に、図9乃至図22を参照して、本発明の実施例に係る患者状態判定装置について説明する。図示の実施例では、説明の都合上、上述した図1および図2に示した第1の実施形態に係る患者状態判定装置100に適用した場合について説明する。本実施例は、他の実施形態に係る患者状態判定装置100A~100Cにも同様に適用可能であるのは勿論である。
 図9はNIHSSの13項目を示す図である。これら13項目は、この技術分野において周知のものであるので、詳しくは説明しない。以下、図1および図2を参照して、NIHSSの13項目の各々に対して、図1に示した患者状態判定装置100を使用して、患者の状態を判定する動作について説明する。尚、上述したように、これら13項目に対する、ガイダンスおよび質問の音声データやテキストデータは、予め項目記憶部124に格納されている。以下の図面において、Gはガイダンスを示す。また、ガイダンスおよび質問は、上述したように、音声と画像(テキストデータ)との両方で行われる。
 図10は、「1a.意識水準」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「患者にさわらずに名前を呼んで下さい」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「反応はありますか?」との質問を提示する(ステップS301)。ここで、患者の反応があれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS301のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識水準」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS301において、患者の反応がなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「つぎに、軽く肩をたたいてください」とのガイダンスを提示した(図2のステップS101)後、「反応はありますか?」との質問を提示する(図2のステップS102および図10のステップS302)。ここで、患者の反応があれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS302のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識水準」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS302において、患者の反応がなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「つぎに、強い刺激を与えて下さい。」とのガイダンスを提示した(図2のステップS101)後、「反応はありますか?」との質問を提示する(図2のステップS102および図10のステップS303)。ここで、患者の反応があれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS303のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識水準」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS302において、患者の反応がなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この場合、これがこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識水準」の項目に対する点数を、3点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS303において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「意識水準」の項目に対する点数として、3点を選択し出力する。
 図11は、「1b.意識障害-質問」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「現在何月か、患者様の年齢を聞いてください」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「いくつ正解していますか?」との質問を提示する(ステップS401)。ここで、患者の正解が0であれば、医療スタッフは「ゼロ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「0」のキーボタンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「ゼロ」の音声か「0」のタッチを認識して(ステップS401の「0」)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識障害-質問」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 ステップS401で、患者の正解が1つであれば、医療スタッフは「一つ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「1」のキーボタンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「一つ」の音声か「1」のタッチを認識して(ステップS401の「1つ」)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識障害-質問」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 ステップS401で、患者の正解が2つであれば、医療スタッフは「二つ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「2」のキーボタンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「二つ」の音声か「2」のタッチを認識して(ステップS401の「2つ」)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識障害-質問」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS401において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「0」の反応の方が「1つ」、「2つ」の反応よりも点数が高いので、点数判定部113は、「意識障害-質問」の項目に対する点数として、2点を選択し出力する。
 図12は、「1c.意識障害-従命」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「開閉眼と離握手を行ってください。できない場合はほかの動作で置き換えてください。」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「いくつ動作できていますか?」との質問を提示する(ステップS501)。ここで、患者の動作が0であれば、医療スタッフは「ゼロ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「0」のキーボタンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「ゼロ」の音声か「0」のタッチを認識して(ステップS501の「0」)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識障害-従命」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 上記ステップS501で、患者の動作が1つであれば、医療スタッフは「一つ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「1」のキーボタンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「一つ」の音声か「1」のタッチを認識して(ステップS501の「1つ」)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識障害-従命」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 上記ステップS501で、患者の動作が2つであれば、医療スタッフは「二つ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「2」のキーボタンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「二つ」の音声か「2」のタッチを認識して(ステップS501の「2つ」)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「意識障害-従命」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS501において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「0」の反応の方が「1つ」、「2つ」の反応よりも点数が高いので、点数判定部113は、「意識障害-従命」の項目に対する点数として、2点を選択し出力する。
 図13は、「2.最良の注視」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「指で上下左右に目を追わせてください」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「共同偏視はありますか?」との質問を提示する(ステップS601)。
 ここで、医療スタッフが、「共同偏視がない」と判断したとする(ステップS601のNo)。この場合には、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS601のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「目で指をまったく追っていませんか?」との質問を提示する(ステップS602)。
 ここで、医療スタッフが、「目で指をまったく追っていない」と判断したとする(ステップS602のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS602のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の注視」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS602において、医療スタッフが、「目で指を追っている」と判断したとする(ステップS602のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS602のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「全方向で指を目で追っていますか?」との質問を提示する(ステップS603)。
 ここで、医療スタッフが、「全方向で指を目でまったく追っている」と判断したとする(ステップS603のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS603のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の注視」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS603において、医療スタッフが、「全方向で指を目で追っていない」と判断したとする(ステップS603のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチすることになる。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS603のYNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の注視」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 上記ステップ601で、医療スタッフが、「共同偏視がある」と判断したとする(ステップS601のYes)。この場合には、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS601のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「目で指をまったく追っていませんか?」との質問を提示する(ステップS604)。
 ここで、医療スタッフが、「目で指をまったく追っていない」と判断したとする(ステップS604のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS604のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の注視」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS604で、医療スタッフが、「目で指を追っている」と判断したとする(ステップS604のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS604のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の注視」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS603において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「最良の注視」の項目に対する点数として、1点を選択し出力する。
 また、上記ステップS604において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「Yes」の反応の方が「No」の反応よりも点数が高いので、点数判定部113は、「最良の注視」の項目に対する点数として、2点を選択し出力する。
 図14は、「3.視野」の項目に対して、指示部111から指示される、ガイダンスおよび質問と、タッチパネル付き表示装置の表示画面上の表示例とを示すフローチャートである。
 まず、図2のステップS101およびS102で、指示部111は、出力装置140を使用して「全盲の場合は“全盲”といってください。左右の目それぞれで視野の欠損を確認して、欠損部をタッチしてください。」とのガイダンスおよび質問を提示する。本項目の場合には、図14に示されるように、タッチパネル付き表示装置の表示画面上に、左目および右目に対して1~6の番が記載された画像が表示される。
 医療スタッフは患者を観察して、その表示画像の欠損部をタッチする。反応認識部112は、このタッチした部分に対応するタッチ信号を認識結果として出力する(図2のステップS103)。医療スタッフのタッチ操作が終了すると、このタッチ操作がこの項目の最後の質問に相当することになるので(図2のステップS105のYes)、点数判定部113は、このタッチ信号(認識結果)に基づいて、自動的に点数を算出して出力する。
 一方、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として一番高い点数を、判定した点数として選択し出力する(図2のステップS107)。
 図15は、「4.顔面麻痺」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「顔面におでこは入れないでください」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「麻痺はありませんか?」との質問を提示する(ステップS701)。ここで、医療スタッフが患者の顔面に麻痺がないと判断したなら、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS701のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「顔面麻痺」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS701において、医療スタッフが患者の顔面に麻痺があると判断したなら、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」をタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「顔面が完全に麻痺していますか?」との質問を提示する(図2のステップS102および図15のステップS702)。ここで、医療スタッフが患者の顔面が完全に麻痺していると判断したなら、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS702のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「顔面麻痺」の項目に対する点数を、3点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS702において、医療スタッフが患者の顔面が完全に麻痺してはいないと判断したなら、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」をタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「顔面の半分以上麻痺していますか?」との質問を提示する(図2のステップS102および図15のステップS703)。ここで、医療スタッフが患者の顔面の半分以上麻痺していると判断したなら、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS703のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「顔面麻痺」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS703において、医療スタッフが患者の顔面の半分以上麻痺していないと判断したなら、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「顔面麻痺」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS703において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「Yes」の反応の方が「No」の反応よりも点数が高いので、点数判定部113は、「顔面麻痺」の項目に対する点数として、2点を選択し出力する。
 この例の場合のように、項目が「顔面麻痺」のような特定の項目の場合、指示部111は、まず、この特定の項目に対する複数の質問の最初の方として、医療スタッフが患者の状態を判断するのが容易な質問(この例では「麻痺はありませんか?」)を指示する。そして、指示部111は、この特定の項目に対する複数の質問の最後として、医療スタッフが患者の状態を判断するのが困難な質問(この例では「顔面の半分以上麻痺していますか?」)を指示する。
 このように提示する質問の順番を選択することによって、本実施例では、より正確な点数付けをすることが可能となる。詳述すると、もしこのような順番で質問をしない場合、医療スタッフは、患者の顔面をみて麻痺があるか否か、麻痺がある場合にはどの程度であるか、を自分で判断しなければならない。このような判断は非常に難しいので、医療スタッフ(特に、経験の浅い医療スタッフ)は判断に迷う場合が多い。その結果、このような状況では、医療スタッフは、一番点数の小さい0点か、一番点数の高い3点のどちらかを選択してしまう場合が多い。その結果、点数の誤差が大きくなってしまう。これに対して、本実施例では、判断するのが容易な質問を最初にして、判断するのが困難な質問を最後にしているので、より正確に点数付けを行うことが可能となる。換言すれば、判断に迷った場合(図2のステップS104のYes)でも、本実施例では、点数としては1点の誤差になるだけである。
 図16は、「5.上肢の運動」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「健常肢から行ってください。手首とひじを宙に浮かせてからはじめてください。検査できない場合は、“検査不能”といってください」とガイダンスする。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「重力に抗しているか?」との質問を提示する(ステップS801)。
 ここで、医療スタッフが、患者の上肢が「重力に抗している」と判断したとする(ステップS801のYes)。この場合には、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS801のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「ベッドに打つように落下するか?」との質問を提示する(ステップS802)。
 ここで、医療スタッフが、患者の上肢が「ベッドに打つように落下している」と判断したとする(ステップS802のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS802のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「上肢の運動」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS802において、医療スタッフが、患者の上肢が「ベッドに打つように落下していない」と判断したとする(ステップS802のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS802のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「10秒保持しているか?」との質問を提示する(ステップS803)。
 ここで、医療スタッフが、患者が上肢を「10秒保持している」と判断したとする(ステップS803のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS803のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「上肢の運動」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS803において、医療スタッフが、患者が上肢を「10秒保持していない」と判断したとする(ステップS803のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS803のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「上肢の運動」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 上記ステップS801で、医療スタッフが、患者の上肢が「重力に抗していない」と判断したとする(ステップS801のNo)。この場合には、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS801のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「まったく動かないか?」との質問を提示する(ステップS804)。
 ここで、医療スタッフが、患者の上肢が「まったく動かない」と判断したとする(ステップS804のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS804のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「上肢の運動」の項目に対する点数を、4点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS804で、医療スタッフが、患者の上肢が「まったく動かなくはない」と判断したとする(ステップS804のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS804のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「上肢の運動」の項目に対する点数を、3点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS803において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「上肢の運動」の項目に対する点数として、1点を選択し出力する。
 また、上記ステップS804において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「Yes」の反応の方が「No」の反応よりも点数が高いので、点数判定部113は、「上肢の運動」の項目に対する点数として、4点を選択し出力する。
 図17は、「6.下肢の運動」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「健常肢から行ってください。手首とひじを宙に浮かせてからはじめてください。検査できない場合は、“検査不能”といってください」とガイダンスする。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「重力に抗しているか?」との質問を提示する(ステップS901)。
 ここで、医療スタッフが、患者の下肢が「重力に抗している」と判断したとする(ステップS901のYes)。この場合には、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS901のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「ベッドに打つように落下するか?」との質問を提示する(ステップS902)。
 ここで、医療スタッフが、患者の下肢が「ベッドに打つように落下している」と判断したとする(ステップS902のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS902のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「下肢の運動」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS902において、医療スタッフが、患者の下肢が「ベッドに打つように落下していない」と判断したとする(ステップS902のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS902のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「5秒保持しているか?」との質問を提示する(ステップS903)。
 ここで、医療スタッフが、患者が下肢を「5秒保持している」と判断したとする(ステップS903のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS903のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「下肢の運動」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS903において、医療スタッフが、患者が下肢を「5秒保持していない」と判断したとする(ステップS903のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS903のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「下肢の運動」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 上記ステップ901で、医療スタッフが、患者の下肢が「重力に抗していない」と判断したとする(ステップS901のNo)。この場合には、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS901のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、図2のステップS102に戻って、引き続いて、出力装置140を使用して「まったく動かないか?」との質問を提示する(ステップS904)。
 ここで、医療スタッフが、患者の下肢が「まったく動かない」と判断したとする(ステップS904のYes)。この場合、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS904のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「下肢の運動」の項目に対する点数を、4点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS904で、医療スタッフが、患者の下肢が「まったく動かなくはない」と判断したとする(ステップS904のNo)。この場合、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「いいえ」の音声か「No」のタッチを認識して(ステップS904のNo)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「下肢の運動」の項目に対する点数を、3点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS903において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「下肢の運動」の項目に対する点数として、1点を選択し出力する。
 また、上記ステップS904において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「Yes」の反応の方が「No」の反応よりも点数が高いので、点数判定部113は、「上肢の運動」の項目に対する点数として、4点を選択し出力する。
 図18は、「7.運動失調」の項目に対して、指示部111から指示される、ガイダンスおよび質問と、タッチパネル付き表示装置の表示画面上の表示例とを示すフローチャートである。
 まず、図2のステップS101およびS102で、指示部111は、出力装置140を使用して「上肢と下肢のテストを左右で行ってくだい。できていない部分をタッチしてください。」とガイダンスし、質問する。本項目の場合には、図18に示されるように、タッチパネル付き表示装置の表示画面上に、左上肢、左下肢、右上肢、および右下肢に対して、それぞれ、1~4の番号が記載された画像が表示される。
 医療スタッフは患者を観察して、その表示画像のできていない部分をタッチする。反応認識部112は、このタッチした部分に対応するタッチ信号を認識結果として出力する(図2のステップS103)。医療スタッフのタッチ操作が終了すると、このタッチ操作がこの項目の最後の質問に相当することになるので(図2のステップS105のYes)、点数判定部113は、このタッチ信号(認識結果)に基づいて、自動的に点数を算出して出力する。
 一方、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として一番高い点数を、判定した点数として選択し出力する(図2のステップS107)。
 図19は、「8.感覚」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「つまようじで患者様を刺激してくだい」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「刺したところに全て反応していますか?」との質問を提示する(ステップS1001)。ここで、患者が刺激に対して全て反応していれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1001のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「感覚」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1001において、患者が刺激に対して全てに反応しているわけでなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「まったく反応がありませんか?」との質問を提示する(図2のステップS102および図19のステップS1002)。ここで、刺激に対して患者にまったく反応がなければ、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1002のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「感覚」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1002において、患者にまったく反応がなくはなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「感覚」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1002において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「Yes」の反応の方が「No」の反応よりも点数が高いので、点数判定部113は、「感覚」の項目に対する点数として、2点を選択し出力する。
 図20は、「9.最良の言語」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「絵を見せて質問してください。文字を読ませてくだい。」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「質問に対してまったく反応がありませんか?」との質問を提示する(ステップS1101)。ここで、質問に対して患者にまったく反応がなければ、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1101のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の言語」の項目に対する点数を、3点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1101において、質問に対して患者に反応があれば、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「質問に対して問題なく答えていますか?」との質問を提示する(図2のステップS102および図20のステップS1102)。ここで、患者が質問に対して問題なく答えていれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1102のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の言語」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1102において、患者が質問に対して問題なく答えていなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「発した単語が理解できますか?」との質問を提示する(図2のステップS102および図20のステップS1103)。ここで、医療スタッフが、患者が単語を理解できていると判断したなら、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1103のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の言語」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1103において、医療スタッフが、患者が単語を理解できていないと判断したなら、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「最良の言語」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1103において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「最良の言語」の項目に対する点数として、2点を選択し出力する。
 図21は、「10.構音障害」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「文字を読ませてください。」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「文字をすべて問題なく読めていますか?」との質問を提示する(ステップS1201)。ここで、患者が文字をすべて問題なく読めていれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1201のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「構音障害」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1201において、患者が文字をすべて問題なく読めてはいなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「半分以上発している言語が理解できますか?」との質問を提示する(図2のステップS102および図21のステップS1202)。ここで、医療スタッフが患者の発する言語を理解できていれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1202のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「構音障害」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1202において、医療スタッフが患者の発する言語を理解できていなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「構音障害」の項目に対する点数を、2点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1202において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「構音障害」の項目に対する点数として、2点を選択し出力する。
 図22は、「11.消去現象と注意障害」の項目に対して、指示部111から指示される、ガイダンスおよび質問を示すフローチャートである。
 まず、図2のステップS101で、指示部111は、出力装置140を使用して「麻痺側がある場合は麻痺側に立ってください。」とのガイダンスを提示する。引き続いて、図2のステップS102で、指示部111は、出力装置140を使用して「指示に対して問題なくできていますか?」との質問を提示する(ステップS1301)。ここで、患者が問題なくでてきれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1301のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「消去現象と注意障害」の項目に対する点数を、0点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1301において、患者が問題なくできていなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問ではないので(図2のステップS105のNo)、指示部111は、「真ん中をつかめていますか?」との質問を提示する(図2のステップS102および図22のステップS1302)。ここで、患者が真ん中をつかめていれば、医療スタッフは、「はい」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「Yes」のアイコンをタッチする。この結果、図2のステップS103で、反応認識部112は、この「はい」の音声か「Yes」のタッチを認識して(ステップS1302のYes)、その認識結果を出力する。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「消去現象と注意障害」の項目に対する点数を、1点と判定する。その後、次の項目へ移ることになる(図2のステップS106参照)。
 一方、上記ステップS1302において、患者が真ん中をつかめていなければ、医療スタッフは、「いいえ」と音声でマイクロホンから回答するか、タッチパネル付き表示装置の表示画面上の「No」のアイコンをタッチする。
 この場合、この質問がこの項目の最後の質問になるので(図2のステップS105のYes)、点数判定部113は、この認識結果に基づいて、「消去現象と注意障害」の項目に対する点数を、2点と判定する。
 一方、上記ステップS1302において、医療スタッフが判断に迷ってしまって、経過時間が許容時間を経過したとする(図2のステップS104のYes)。この場合、点数判定部113は、この時点での質問に対する医療スタッフの反応として高い方の点数を、判定した点数として選択し出力する(図2のステップS107)。この例の場合、「No」の反応の方が「Yes」の反応よりも点数が高いので、点数判定部113は、「消去現象と注意障害」の項目に対する点数として、2点を選択し出力する。
 上述の患者状態判定装置100~100Cは、ハードウエアによって実現してもよいし、ソフトウエアによって実現してもよい。また、患者状態判定装置100~100Cは、ハードウエアとソフトウエアの組み合わせによって実現してもよい。
 なお、データ処理装置110~110Cが読み取り可能なプログラム122は、コンピュータが読み取り可能な様々な記録媒体に非一時的に格納した状態で、患者状態判定装置100~100Cに供給してもよい。このような記録媒体は、例えば、磁気テープ、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc-Read Only Memory)、CD-R(Compact Disc- Recordable)、CD-RW(Compact Disc-ReWritable)、半導体メモリである。
 以上、本発明の実施形態および実施例について説明したが、本発明は、これらに限られるものではない。例えば、本発明は、これまで説明した実施形態および実施例の一部または全部を適宜組み合わせた形態や、その形態に適宜変更を加えた形態をも含む。
 例えば、上記実施形態のいずれも、データ処理装置は、時間計測部を備えているが、本発明ではこれを省いてもよい。この場合、測定時間(判定時間)の問題は残るかも知れないが、点数付けの測定(判定)の判断困惑の問題を解決することは可能である。何故なら、医療スタッフに対して適切なガイダンスと指示とを行っているからである。
 また、タッチパネル付き表示装置の表示画面上に「ヘルプ」ボタンを表示するようにしてもよい。この場合、例えば、経験の浅い医療スタッフがこの「ヘルプ」ボタンを押すと、過去において熟練の医療スタッフが点数付けした、過去の類似の患者に対する「判定した点数」が指示された項目と紐付けられた状態で、その表示画面上に表示される。これにより、経験の浅い医療スタッフは、この表示内容を参考にしながら、適切な点数付けをすることが可能となる。
 さらに、上記実施形態では、集計装置200は、単に患者状態判定装置から判定した点数を受けて、その点数を集計しているだけであるが、本発明はそれに限定されない。すなわち、本発明は、集計装置200の代わりに、医療記録データベースを備えた電子カルテシステムに適用されてもよい。
 この場合、患者状態判定装置100A~100Cの各々は、記憶装置120A、120Bの点数・時間記録部126に記録された記録情報(指定された項目、判定した点数、および経過時間)を患者IDと紐付けて、通信インターフェース150を介して無線で電子カルテシステムへ送信する。電子カルテシステムは、受信した記録情報(患者IDが紐付けられている)を、集計結果と共に、医療記録データベースの対応する患者IDの欄に記録(転記)する。
 また、通信インターフェース150がコネクタから成る場合には、患者状態判定装置100A~100Cの各々は、記憶装置120A、120Bの点数・時間記録部126に記録された記録情報(指定された項目、判定した点数、および経過時間)を患者IDと紐付けて、コネクタを介して外部の記録媒体に書き込む。そして、電子カルテシステムでは、外部の記録媒体に記録されている情報を、その電子カルテシステムに備えられているコネクタを介して読み込み、読み込んだ情報を、集計結果と共に、医療記録データベースの対応する患者IDの欄に記録(転記)する。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示部と、
 指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力する反応認識部と、
 前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力する点数判定部と、を備え、
 前記指示部は、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示する、ことを特徴とする患者状態判定装置。
(付記2)
 前記指示部は、前記指示された項目に対応する前記質問の各々を音声にて前記医療スタッフに知らせる音声通知手段を含むことを特徴とする付記1に記載の患者状態判定装置。
(付記3)
 前記反応認識部は、前記反応として前記医療スタッフから発声された回答音声を受け、該回答音声を識別して、識別結果を前記認識結果として出力する音声識別手段を含むことを特徴とする付記1又は2に記載の患者状態判定装置。
(付記4)
 前記医療スタッフに対して各項目の指示を開始した開始時刻からの経過時間を測定する時間測定部を更に有する、付記1乃至3のいずれか1つに記載の患者状態判定装置。
(付記5)
 前記複数の項目には、それぞれ、許容時間が予め設定されており、
 前記経過時間が前記許容時間を超過した時点で、前記医療スタッフから前記反応が得られなかった場合、前記点数判定部は、前記時点での質問に対してする反応として高い方の点数を、前記判定した点数として選択し出力する、付記4に記載の患者状態判定装置。
(付記6)
 前記判定した点数と前記経過時間とを、前記指示された項目に紐付けて、記録情報として記録する点数・時間記録部を更に有する、付記4に記載の患者状態判定装置。
(付記7)
 少なくとも前回を含む過去の測定において、前記点数・時間記録部に記録された前記記録情報に基づいて、前記指示部は、今回の測定で前記医療スタッフへ指示すべき通知内容を変更する、付記6に記載の患者状態判定装置。
(付記8)
 前記変更される通知内容は、前記指示された項目に対して設定された許容時間を含む、付記7に記載の患者状態判定装置。
(付記9)
 前記患者の測定状態を記録する測定状態記録部を更に有する、付記6に記載の患者状態判定装置。
(付記10)
 少なくとも前回を含む過去の測定において、前記点数・時間記録部に記録された前記記録情報と前記測定状態記録部に記録された前記測定状態とに基づいて、前記指示部は、今回の測定で前記医療スタッフへ指示すべき通知内容を変更する、付記9に記載の患者状態判定装置。
(付記11)
 前記変更される通知内容は、前記指示された項目に対して設定された許容時間を含む、付記10に記載の患者状態判定装置。
(付記12)
 前記複数の項目には、それぞれ、許容時間が予め設定されており、
 前記経過時間が前記許容時間を超過した時点で、前記医療スタッフから前記反応が得られなかった場合、複数の類似事例を予め保存している類似事例データベースから、前記患者の状態に類似している1つの類似事例を抽出して、抽出した類似事例を前記医療スタッフへ提示する類似事例抽出部を更に備える、付記4に記載の患者状態判定装置。
(付記13)
 前記複数の項目の中の特定の項目に対して複数の質問が存在する場合、
  前記指示部は、
 前記特定の項目に対する前記複数の質問の最初の方として、前記医療スタッフが前記患者の状態を判断するのが容易な質問を指示し、
 前記特定の項目に対する前記複数の質問の最後として、前記医療スタッフが前記患者の状態を判断するのが困難な質問を指示する、
付記1乃至12のいずれか1つに記載の患者状態判定装置。
(付記14)
 前記複数の項目は、NIHSS(National Institute of Health Stroke Scale)で規定されている項目から成る、付記1乃至13のいずれか1つに記載の患者状態判定装置。
(付記15)
 付記1乃至14のいずれか1つに記載の患者状態判定装置と、
 該患者状態判定装置から前記判定した点数を受けて、前記点数を集計する集計装置と、
を含む患者状態判定システム。
(付記16)
 指示部が、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示し、
 反応認識部が、指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力し、
 点数判定部が、前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力し、
 前記指示部は、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示する、ことを特徴とする患者状態判定方法。
(付記17)
 患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示手順と、
 指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力する反応認識手順と、
 前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力する点数判定手順と、
をコンピュータに実行させる患者状態判定プログラムを記録した記録媒体であって、
 前記指示手順は、前記コンピュータに、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示させる、患者状態判定プログラムを記録した記録媒体。
 この出願は、2017年12月8日に出願された日本出願特願2017-235687を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100、100A、100B、100C・・・患者状態判定装置
 110、110A、110B、110C・・・データ処理装置
 111、111A、111B・・・指示部
 112・・・反応認識部
 113・・・点数判定部
 114・・・時間測定部
 115・・・類似事例抽出部
 118、118A、118B、118C・・・制御部
 120、120A、120B・・・記憶装置
 122・・・プログラム
 124・・・項目記憶部
 126・・・点数・時間記録部
 128・・・測定状態記録部
 130・・・入力装置
 140・・・出力装置
 150・・・通信インターフェース
 200・・・集計装置
 210・・・データ処理装置
 212・・・集計部
 220・・・記憶装置
 230・・・通信インターフェース
 

Claims (17)

  1.  患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示部と、
     指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力する反応認識部と、
     前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力する点数判定部と、を備え、
     前記指示部は、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示する、ことを特徴とする患者状態判定装置。
  2.  前記指示部は、前記指示された項目に対応する前記質問の各々を音声にて前記医療スタッフに知らせる音声通知手段を含むことを特徴とする請求項1に記載の患者状態判定装置。
  3.  前記反応認識部は、前記反応として前記医療スタッフから発声された回答音声を受け、該回答音声を識別して、識別結果を前記認識結果として出力する音声識別手段を含むことを特徴とする請求項1又は2に記載の患者状態判定装置。
  4.  前記医療スタッフに対して各項目の指示を開始した開始時刻からの経過時間を測定する時間測定部を更に有する、請求項1乃至3のいずれか1つに記載の患者状態判定装置。
  5.  前記複数の項目には、それぞれ、許容時間が予め設定されており、
     前記経過時間が前記許容時間を超過した時点で、前記医療スタッフから前記反応が得られなかった場合、前記点数判定部は、前記時点での質問に対してする反応として高い方の点数を、前記判定した点数として選択し出力する、請求項4に記載の患者状態判定装置。
  6.  前記判定した点数と前記経過時間とを、前記指示された項目に紐付けて、記録情報として記録する点数・時間記録部を更に有する、請求項4に記載の患者状態判定装置。
  7.  少なくとも前回を含む過去の測定において、前記点数・時間記録部に記録された前記記録情報に基づいて、前記指示部は、今回の測定で前記医療スタッフへ指示すべき通知内容を変更する、請求項6に記載の患者状態判定装置。
  8.  前記変更される通知内容は、前記指示された項目に対して設定された許容時間を含む、請求項7に記載の患者状態判定装置。
  9.  前記患者の測定状態を記録する測定状態記録部を更に有する、請求項6に記載の患者状態判定装置。
  10.  少なくとも前回を含む過去の測定において、前記点数・時間記録部に記録された前記記録情報と前記測定状態記録部に記録された前記測定状態とに基づいて、前記指示部は、今回の測定で前記医療スタッフへ指示すべき通知内容を変更する、請求項9に記載の患者状態判定装置。
  11.  前記変更される通知内容は、前記指示された項目に対して設定された許容時間を含む、請求項10に記載の患者状態判定装置。
  12.  前記複数の項目には、それぞれ、許容時間が予め設定されており、
     前記経過時間が前記許容時間を超過した時点で、前記医療スタッフから前記反応が得られなかった場合、複数の類似事例を予め保存している類似事例データベースから、前記患者の状態に類似している1つの類似事例を抽出して、抽出した類似事例を前記医療スタッフへ提示する類似事例抽出部を更に備える、請求項4に記載の患者状態判定装置。
  13.  前記複数の項目の中の特定の項目に対して複数の質問が存在する場合、
      前記指示部は、
     前記特定の項目に対する前記複数の質問の最初の方として、前記医療スタッフが前記患者の状態を判断するのが容易な質問を指示し、
     前記特定の項目に対する前記複数の質問の最後として、前記医療スタッフが前記患者の状態を判断するのが困難な質問を指示する、
    請求項1乃至12のいずれか1つに記載の患者状態判定装置。
  14.  前記複数の項目は、NIHSS(National Institute of Health Stroke Scale)で規定されている項目から成る、請求項1乃至13のいずれか1つに記載の患者状態判定装置。
  15.  請求項1乃至14のいずれか1つに記載の患者状態判定装置と、
     該患者状態判定装置から前記判定した点数を受けて、前記点数を集計する集計装置と、
    を含む患者状態判定システム。
  16.  指示部が、患者に対して測定すべき複数の項目を、順次、医療スタッフに指示し、
     反応認識部が、指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力し、
     点数判定部が、前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力し、
     前記指示部は、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示する、ことを特徴とする患者状態判定方法。
  17.  患者に対して測定すべき複数の項目を、順次、医療スタッフに指示する指示手順と、
     指示された項目に対する、前記医療スタッフからの反応を認識して、認識結果を出力する反応認識手順と、
     前記認識結果に基づいて前記指示された項目に対する点数を判定し、判定した点数を出力する点数判定手順と、
    をコンピュータに実行させる患者状態判定プログラムを記録した記録媒体であって、
     前記指示手順は、前記コンピュータに、前記複数の項目の各々を、該項目に関連付けられた少なくとも1つの質問の形式で、前記医療スタッフに提示させる、患者状態判定プログラムを記録した記録媒体。
     
PCT/JP2018/041155 2017-12-08 2018-11-06 患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体 WO2019111618A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/770,347 US20200365256A1 (en) 2017-12-08 2018-11-06 Patient status determination device, patient status determination system, patient status determination method, and patient status determination program recording medium
JP2019558086A JP7064227B2 (ja) 2017-12-08 2018-11-06 患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017235687 2017-12-08
JP2017-235687 2017-12-08

Publications (1)

Publication Number Publication Date
WO2019111618A1 true WO2019111618A1 (ja) 2019-06-13

Family

ID=66750488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/041155 WO2019111618A1 (ja) 2017-12-08 2018-11-06 患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体

Country Status (3)

Country Link
US (1) US20200365256A1 (ja)
JP (1) JP7064227B2 (ja)
WO (1) WO2019111618A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081977A (ja) * 2019-11-19 2021-05-27 株式会社Smart119 診療支援システム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068133A (ko) * 2017-12-08 2019-06-18 삼성전자주식회사 오디오 데이터에 포함된 음소 정보를 이용하여 어플리케이션을 실행하기 위한 전자 장치 및 그의 동작 방법
US11904207B2 (en) 2019-05-10 2024-02-20 Rehab2Fit Technologies, Inc. Method and system for using artificial intelligence to present a user interface representing a user's progress in various domains
US11957956B2 (en) 2019-05-10 2024-04-16 Rehab2Fit Technologies, Inc. System, method and apparatus for rehabilitation and exercise
US11957960B2 (en) 2019-05-10 2024-04-16 Rehab2Fit Technologies Inc. Method and system for using artificial intelligence to adjust pedal resistance
US11433276B2 (en) 2019-05-10 2022-09-06 Rehab2Fit Technologies, Inc. Method and system for using artificial intelligence to independently adjust resistance of pedals based on leg strength
US11896540B2 (en) 2019-06-24 2024-02-13 Rehab2Fit Technologies, Inc. Method and system for implementing an exercise protocol for osteogenesis and/or muscular hypertrophy
US11071597B2 (en) 2019-10-03 2021-07-27 Rom Technologies, Inc. Telemedicine for orthopedic treatment
US11955222B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for determining, based on advanced metrics of actual performance of an electromechanical machine, medical procedure eligibility in order to ascertain survivability rates and measures of quality-of-life criteria
US11887717B2 (en) 2019-10-03 2024-01-30 Rom Technologies, Inc. System and method for using AI, machine learning and telemedicine to perform pulmonary rehabilitation via an electromechanical machine
US12020799B2 (en) 2019-10-03 2024-06-25 Rom Technologies, Inc. Rowing machines, systems including rowing machines, and methods for using rowing machines to perform treatment plans for rehabilitation
US11955223B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for using artificial intelligence and machine learning to provide an enhanced user interface presenting data pertaining to cardiac health, bariatric health, pulmonary health, and/or cardio-oncologic health for the purpose of performing preventative actions
US11101028B2 (en) 2019-10-03 2021-08-24 Rom Technologies, Inc. Method and system using artificial intelligence to monitor user characteristics during a telemedicine session
US11978559B2 (en) 2019-10-03 2024-05-07 Rom Technologies, Inc. Systems and methods for remotely-enabled identification of a user infection
US12020800B2 (en) 2019-10-03 2024-06-25 Rom Technologies, Inc. System and method for using AI/ML and telemedicine to integrate rehabilitation for a plurality of comorbid conditions
US11915815B2 (en) 2019-10-03 2024-02-27 Rom Technologies, Inc. System and method for using artificial intelligence and machine learning and generic risk factors to improve cardiovascular health such that the need for additional cardiac interventions is mitigated
US11955221B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for using AI/ML to generate treatment plans to stimulate preferred angiogenesis
US11069436B2 (en) 2019-10-03 2021-07-20 Rom Technologies, Inc. System and method for use of telemedicine-enabled rehabilitative hardware and for encouraging rehabilitative compliance through patient-based virtual shared sessions with patient-enabled mutual encouragement across simulated social networks
US11075000B2 (en) 2019-10-03 2021-07-27 Rom Technologies, Inc. Method and system for using virtual avatars associated with medical professionals during exercise sessions
US11915816B2 (en) 2019-10-03 2024-02-27 Rom Technologies, Inc. Systems and methods of using artificial intelligence and machine learning in a telemedical environment to predict user disease states
US11923065B2 (en) 2019-10-03 2024-03-05 Rom Technologies, Inc. Systems and methods for using artificial intelligence and machine learning to detect abnormal heart rhythms of a user performing a treatment plan with an electromechanical machine
US11961603B2 (en) 2019-10-03 2024-04-16 Rom Technologies, Inc. System and method for using AI ML and telemedicine to perform bariatric rehabilitation via an electromechanical machine
US11955220B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for using AI/ML and telemedicine for invasive surgical treatment to determine a cardiac treatment plan that uses an electromechanical machine
US20230368886A1 (en) * 2019-10-03 2023-11-16 Rom Technologies, Inc. System and method for an enhanced healthcare professional user interface displaying measurement information for a plurality of users
US20220022779A1 (en) * 2020-07-27 2022-01-27 Welch Allyn, Inc. Stroke scale assessment
US20220151541A1 (en) * 2020-11-16 2022-05-19 Dosepack LLC Computerised and Automated System for Detecting an Allergic Reaction and Managing Allergy Treatment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004662A (ja) * 2005-06-27 2007-01-11 Tatsunori Yuumen 訪問診療支援システムおよび方法
JP2010094243A (ja) * 2008-10-15 2010-04-30 Kithit Co Ltd 自動問診システム
JP2014023715A (ja) * 2012-07-26 2014-02-06 Sharp Corp 測定支援装置、測定支援方法、制御プログラム、および、記録媒体
JP2016157430A (ja) * 2015-02-24 2016-09-01 ゼロックス コーポレイションXerox Corporation 被験者の健康状態を予測する方法およびシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1968439A4 (en) 2005-12-23 2010-05-26 Univ Queensland SONIFIZATION OF THE AWARENESS OF A PATIENT

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004662A (ja) * 2005-06-27 2007-01-11 Tatsunori Yuumen 訪問診療支援システムおよび方法
JP2010094243A (ja) * 2008-10-15 2010-04-30 Kithit Co Ltd 自動問診システム
JP2014023715A (ja) * 2012-07-26 2014-02-06 Sharp Corp 測定支援装置、測定支援方法、制御プログラム、および、記録媒体
JP2016157430A (ja) * 2015-02-24 2016-09-01 ゼロックス コーポレイションXerox Corporation 被験者の健康状態を予測する方法およびシステム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HONDA, HARUKA: "A Development of the Awareness Supported Application in Cerebral Infarction", 4TH VOLUME OF LECTURE PROCEEDINGS OF THE 12TH FORUM ON INFORMATION TECHNOLOGY, FIT 2013, no. O-035, 20 August 2013 (2013-08-20), pages 595 - 596, XP055615773 *
KATSUTA, TOSHIRO: "NIHSS (National Institute of Health Stroke Scale) and JSS ( Japan Stroke Scale", NIPPON RINSHO (JAPANESE JOURNAL OF CLINICAL MEDICINE), vol. 72, no. 5, 20 July 2014 (2014-07-20), pages 345 - 349, ISSN: 0047-1852 *
NAKAO, SHOTA: "Availabilities of emergency patient registration system using information and communication technology", NIHON KYUKYU IGAKUKAI ZASSHI, vol. 25, no. 9, 31 December 2014 (2014-12-31), pages 693 - 702, XP055615780, DOI: 10.3893/jjaam.25.693 *
PDAP, PDAP-STROKE DIAGNOSIS AUXILIARY TOOL, 17 April 2017 (2017-04-17), XP055615769, Retrieved from the Internet <URL:https://appadvice.com/app/pdap-e8-84-b3-e5-8d-92-e4-b8-ad-e8-a8-ba-e6-96-ad-e8-a3-9c-e5-8a-a9-e3-83-84-e3-83-bc-e3-83-ab/1227299508> [retrieved on 20190110] *
RESEARCH AND DEVELOPMENT CASEBOOK V FOR FIREFIGHTING AND DISASTER PREVENTION SCIENCE TECHNOLOGY, 31 March 2015 (2015-03-31), pages 98 - 101, Retrieved from the Internet <URL:http://www.fdma.go.jp/neuter/topics/fieldList4_2/pdf/seika_jirei05-h2703.pdf> [retrieved on 20190118] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081977A (ja) * 2019-11-19 2021-05-27 株式会社Smart119 診療支援システム
JP7430374B2 (ja) 2019-11-19 2024-02-13 株式会社Smart119 診療支援システム

Also Published As

Publication number Publication date
JPWO2019111618A1 (ja) 2020-11-26
JP7064227B2 (ja) 2022-05-10
US20200365256A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
WO2019111618A1 (ja) 患者状態判定装置、患者状態判定システム、患者状態判定方法、および患者状態判定プログラム記録媒体
US9721065B2 (en) Interactive medical diagnosing with portable consumer devices
US20240078238A1 (en) System and method for achieving goals
Grundgeiger et al. Interruption management in the intensive care unit: Predicting resumption times and assessing distributed support.
US20190320900A1 (en) Telemedicine system
US20170007126A1 (en) System for conducting a remote physical examination
WO2013089072A1 (ja) 情報管理装置、情報管理方法、情報管理システム、聴診器、情報管理プログラム、測定システム、制御プログラムおよび記録媒体
CN107910073A (zh) 一种急诊预检分诊方法及装置
JP2007503283A (ja) 自動診断聴覚検査用のユーザインターフェース
JP2017217051A (ja) 認知症診断支援装置とその作動方法および作動プログラム、並びに認知症診断支援システム
US9244528B2 (en) Gaze based communications for locked-in hospital patients
JP2002291706A (ja) ウェアラブルコンピュータ、ウェアラブルコンピュータ用プログラム、及びウェアラブルコンピュータを利用した医療診断システム
WO2011116340A2 (en) Context-management framework for telemedicine
WO2003062958A2 (en) Communication system
WO2020036207A1 (ja) 医療用情報処理システム、医療用情報処理装置、および医療用情報処理方法
Mari et al. Remote measurement and home monitoring of tremor
US20190159713A1 (en) System and method for evaluating mental disease treatment contents using complex biometric information
JP5599600B2 (ja) 自動問診装置
JP2005052343A (ja) 自動問診装置
US9804768B1 (en) Method and system for generating an examination report
JP2019185586A (ja) ストレスマネジメント支援システム
JP2019057169A (ja) サーバ、医師装置、指導者装置、コンピュータプログラム及び遠隔診療支援方法
JP6537005B1 (ja) 認知機能検査の検査制御システム,方法およびプログラム
KR20130115706A (ko) 스마트 기기를 이용한 사용자 목소리에 기초한 건강 상태 정보 서비스 제공 방법
JP2021192802A (ja) 高次脳機能検査用の三次元表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18885409

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2019558086

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18885409

Country of ref document: EP

Kind code of ref document: A1