JP2019016137A - Recording program, recording method and recording apparatus - Google Patents

Recording program, recording method and recording apparatus Download PDF

Info

Publication number
JP2019016137A
JP2019016137A JP2017132642A JP2017132642A JP2019016137A JP 2019016137 A JP2019016137 A JP 2019016137A JP 2017132642 A JP2017132642 A JP 2017132642A JP 2017132642 A JP2017132642 A JP 2017132642A JP 2019016137 A JP2019016137 A JP 2019016137A
Authority
JP
Japan
Prior art keywords
recording
name
character string
voice
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017132642A
Other languages
Japanese (ja)
Other versions
JP6819489B2 (en
Inventor
ゆり 中村
Yuri Nakamura
ゆり 中村
博昭 三宅
Hiroaki Miyake
博昭 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017132642A priority Critical patent/JP6819489B2/en
Publication of JP2019016137A publication Critical patent/JP2019016137A/en
Application granted granted Critical
Publication of JP6819489B2 publication Critical patent/JP6819489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a recording program capable of recording an action that a recording person takes on an object person of recording more easily than a conventional technique.SOLUTION: A recording program causes a computer to execute the processes of: acquiring a current position of a recording person; acquiring a speech of the recording person; acquiring, from a storage part in which a staying position, a name and an identifier of an object person of recording are stored associatively with one another, a name and an identifier made to correspond to a staying position corresponding to the acquired current position; performing speech recognition on the acquired speech; determining whether the acquired name is included in a first character string generated through the speech recognition; generating, when the name is included, recording object information associated with the object person of recording based upon the speech; and recording the identifier, corresponding to the name included in the acquired first character string, and the recording object information together associatively with each other.SELECTED DRAWING: Figure 11

Description

本件は、記録プログラム、記録方法、及び記録装置に関する。   The present invention relates to a recording program, a recording method, and a recording apparatus.

特定の言葉を認識した場合、その言葉の後に発話された内容を検索クエリとして認識する技術が知られている。また、車室内の監視者の音声を認識して、監視対象者の呼称を含む呼びかけから監視対象者を特定し、事前登録されたその監視対象者の特徴に基づき、車室内の撮像映像からその監視対象者を検索してその位置を特定する技術も知られている(例えば、特許文献1参照)。   There is known a technique for recognizing a content uttered after a specific word as a search query when a specific word is recognized. In addition, it recognizes the voice of the supervisor in the passenger compartment, identifies the supervisor from the call including the name of the supervisor, and based on the characteristics of the supervisor registered in advance, A technique for searching for a person to be monitored and specifying its position is also known (see, for example, Patent Document 1).

特開2012−121387号公報JP2012-121387A

上述したように、音声認識のトリガとして特定の言葉を利用する技術や、音声から監視対象者を特定する技術が知られている。一方で、医療分野で利用される電子カルテには、看護行為や診療行為といった各種行為の記録の入力を支援する機能が実装されていることがある。看護師や医師といった記録者は、当該機能を利用して上記行為の記録をタブレット端末に入力する場合がある。しかしながら、記録を入力する場合、記録者は患者などの記録対象者を選択してから、その記録対象者に対する記録を入力するため、入力に手間がかかるという問題がある。   As described above, a technique that uses a specific word as a trigger for voice recognition and a technique that specifies a person to be monitored from voice are known. On the other hand, electronic medical records used in the medical field may have a function that supports input of records of various actions such as nursing actions and medical actions. A recorder such as a nurse or a doctor may input a record of the above action into the tablet terminal using the function. However, when inputting a record, since the record person selects a record target person such as a patient and then inputs the record for the record target person, there is a problem that it takes time to input.

そこで、1つの側面では、記録者が記録対象者に行った行為を、従来の手法と比較してより簡便に記録できる記録プログラム、記録方法、及び記録装置を提供することを目的とする。   In view of this, an object of one aspect is to provide a recording program, a recording method, and a recording apparatus capable of more easily recording an action performed by a recording person on a recording target person as compared with a conventional method.

1つの実施態様では、記録プログラムは、記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理をコンピュータに実行させる。   In one embodiment, the recording program acquires the current position of the recording person, acquires the sound of the recording person, and acquires from the storage unit that stores the stay position, the name, and the identifier of the recording target person in association with each other. The name and identifier associated with the stay position corresponding to the current position are acquired, voice recognition is performed on the acquired voice, and the first character string generated based on the voice recognition is acquired. Whether or not the designation is included, and if the designation is included, recording target information on the recording target person is generated based on the voice and included in the first character string. A computer is caused to execute a process of recording the identifier corresponding to the designation and the recording target information in association with each other.

記録者が記録対象者に行った行為を、従来の手法と比較してより簡便に記録することができる。   The action performed by the recording person on the person to be recorded can be more easily recorded as compared with the conventional method.

図1は記録システムの一例である。FIG. 1 shows an example of a recording system. 図2は端末装置のハードウェア構成の一例である。FIG. 2 is an example of a hardware configuration of the terminal device. 図3はサーバ装置のハードウェア構成の一例である。FIG. 3 is an example of a hardware configuration of the server apparatus. 図4は端末装置及びサーバ装置のブロック図の一例である。FIG. 4 is an example of a block diagram of the terminal device and the server device. 図5は患者マスタ記憶部の一例である。FIG. 5 is an example of a patient master storage unit. 図6は抽出対象記憶部の一例である。FIG. 6 is an example of the extraction target storage unit. 図7はデータ記憶部の一例である。FIG. 7 shows an example of the data storage unit. 図8は現在位置取得部及び患者データ取得部が実行する取得処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of acquisition processing executed by the current position acquisition unit and the patient data acquisition unit. 図9は音声認識部が実行する音声認識処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a voice recognition process executed by the voice recognition unit. 図10はデータ記録部が実行する記録処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a recording process executed by the data recording unit. 図11(a)〜(e)は看護記録データを生成するまでの処理を説明するための図である。FIGS. 11A to 11E are diagrams for explaining processing until nursing record data is generated. 図12はデータ処理部が実行する要求処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of request processing executed by the data processing unit. 図13はデータ記憶部の他の一例である。FIG. 13 shows another example of the data storage unit.

以下、本件を実施するための形態について図面を参照して説明する。尚、以下に説明する実施形態では、記録者が行う行為の一例として看護師が行う看護行為を説明するが、例えば医師又は歯科医が行う診療行為であってもよい。したがって、看護師が行う看護行為であれば、看護記録が生成され、医師又は歯科医が行う診療行為であれば、診療記録が生成される。なお、看護記録や診療記録は、記録対象情報の一例である。   Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings. In the embodiment described below, a nursing action performed by a nurse is described as an example of an action performed by a recorder. However, for example, a medical practice performed by a doctor or a dentist may be used. Therefore, if it is a nursing action performed by a nurse, a nursing record is generated, and if it is a medical action performed by a doctor or dentist, a medical record is generated. Note that nursing records and medical records are examples of record target information.

図1は記録システムSの一例である。記録システムSは記録装置としての端末装置100とサーバ装置200とを備えている。端末装置100とサーバ装置200とは有線通信及び無線通信により接続されている。例えば、端末装置100は病室R1に設置されたアクセスポイントAP1と無線通信により接続されている。例えば、アクセスポイントAP1と病室R2に設置されたアクセスポイントAP2は有線通信により通信ネットワークNWと接続されている。一方、サーバ装置200は有線通信により通信ネットワークNWと接続されている。したがって、端末装置100とサーバ装置200はアクセスポイントAP1,AP2及び通信ネットワークNWを介して各種のデータを互いに送受信することができる。尚、通信ネットワークNWとしては、例えばLocal Area Network(LAN)などがある。   FIG. 1 shows an example of a recording system S. The recording system S includes a terminal device 100 and a server device 200 as recording devices. The terminal device 100 and the server device 200 are connected by wired communication and wireless communication. For example, the terminal device 100 is connected to an access point AP1 installed in the hospital room R1 by wireless communication. For example, the access point AP1 and the access point AP2 installed in the hospital room R2 are connected to the communication network NW by wired communication. On the other hand, the server device 200 is connected to the communication network NW by wired communication. Therefore, the terminal device 100 and the server device 200 can transmit and receive various data to and from each other via the access points AP1 and AP2 and the communication network NW. The communication network NW includes, for example, a local area network (LAN).

端末装置100は看護師Nに携帯される携帯端末である。図1では、端末装置100の一例としてスマートデバイス(具体的にはスマートフォン)が示されている。端末装置100には外部マイク(例えばピンマイクなど)10が接続されている。外部マイク10の集音部は看護師Nが装着するマスク20により隠れている。外部マイク10の集音部を看護師Nの口元に配置することで、外部マイク10は看護師Nが発声する音声を容易に取得することができる。言い換えれば、外部マイク10は患者Pが発声する音声の取得を回避することができる。看護師Nは病室R1,R2などを行き来し、ベッド30に横たわる各患者Pに対する看護行為を行いつつ、音声により看護記録を作成する。   The terminal device 100 is a portable terminal carried by the nurse N. In FIG. 1, a smart device (specifically, a smartphone) is shown as an example of the terminal device 100. An external microphone (for example, a pin microphone) 10 is connected to the terminal device 100. The sound collecting part of the external microphone 10 is hidden by a mask 20 worn by the nurse N. By arranging the sound collecting part of the external microphone 10 at the mouth of the nurse N, the external microphone 10 can easily acquire the voice uttered by the nurse N. In other words, the external microphone 10 can avoid the acquisition of the voice uttered by the patient P. The nurse N goes back and forth between the hospital rooms R1, R2, etc., and creates a nursing record by voice while performing a nursing action on each patient P lying on the bed 30.

尚、詳細は後述するが、アクセスポイントAP1,AP2は病室R1,R2を識別する病室識別データ及び病棟H1,H2を識別する病棟識別データを保持している。端末装置100がアクセスポイントAP1又はアクセスポイントAP2から病室識別データ及び病棟識別データを取得することで、看護師Nの現在の位置を表す現在位置を特定することができる。尚、アクセスポイントAP1,AP2に代えて、アクセスポイントAP1,AP2とは無線通信の通信方式が異なるビーコン端末を利用してもよい。   Although details will be described later, the access points AP1 and AP2 hold the room identification data for identifying the rooms R1 and R2 and the ward identification data for identifying the wards H1 and H2. The terminal device 100 can identify the current position representing the current position of the nurse N by acquiring the room identification data and the ward identification data from the access point AP1 or the access point AP2. Instead of the access points AP1 and AP2, a beacon terminal having a wireless communication method different from that of the access points AP1 and AP2 may be used.

サーバ装置200は例えば病棟H2のサーバ室R3などに配置される。サーバ装置200は端末装置100からデータの取得要求を受け付けると、取得要求に応じたデータを端末装置100に向けて送信する。サーバ装置200が送信するデータとしては、例えば患者Pを識別する患者ID及び患者Pの呼称などがある。一方、サーバ装置200は端末装置100からデータの保存要求を受け付けると、保存要求に応じたデータを保存する。サーバ装置200が保存するデータとしては、例えば看護記録をデータ化又は電子化した看護記録データなどがある。   The server device 200 is disposed, for example, in the server room R3 of the ward H2. When the server apparatus 200 receives a data acquisition request from the terminal apparatus 100, the server apparatus 200 transmits data corresponding to the acquisition request to the terminal apparatus 100. The data transmitted by the server device 200 includes, for example, a patient ID for identifying the patient P and the name of the patient P. On the other hand, when the server apparatus 200 receives a data storage request from the terminal apparatus 100, the server apparatus 200 stores data corresponding to the storage request. The data stored in the server device 200 includes, for example, nursing record data obtained by digitizing or digitizing a nursing record.

次に、図2を参照して、上述した端末装置100のハードウェア構成について説明する。   Next, the hardware configuration of the terminal device 100 described above will be described with reference to FIG.

図2は端末装置100のハードウェア構成の一例である。図2に示すように、端末装置100は、プロセッサとしてのCentral Processing Unit(CPU)100A、Random Access Memory(RAM)100B、Read Only Memory(ROM)100C、Non-Volatile Memory(NVM)100D及びRadio Frequency(RF)回路100Eを含んでいる。RF回路100Eにはアンテナ100E´が接続されている。RF回路100Eに代えて通信機能を実現するCPUが利用されてもよい。   FIG. 2 is an example of a hardware configuration of the terminal device 100. As illustrated in FIG. 2, the terminal device 100 includes a central processing unit (CPU) 100A as a processor, a random access memory (RAM) 100B, a read only memory (ROM) 100C, a non-volatile memory (NVM) 100D, and a radio frequency. (RF) circuit 100E is included. An antenna 100E ′ is connected to the RF circuit 100E. A CPU that realizes a communication function may be used instead of the RF circuit 100E.

また、端末装置100は、入力端子100F、カメラ100G、タッチパネル100H、ディスプレイ100I、及び内部マイク100Jを含んでいる。入力端子100Fには、外部マイク10が接続される。CPU100Aから内部マイク100Jまでは、内部バス100Kによって互いに接続されている。少なくともCPU100AとRAM100Bとが協働することによってコンピュータが実現される。尚、CPU100Aに代えてMicro Processing Unit(MPU)をプロセッサとして利用してもよい。   The terminal device 100 includes an input terminal 100F, a camera 100G, a touch panel 100H, a display 100I, and an internal microphone 100J. An external microphone 10 is connected to the input terminal 100F. The CPU 100A to the internal microphone 100J are connected to each other by an internal bus 100K. At least the CPU 100A and the RAM 100B cooperate to realize a computer. In place of the CPU 100A, a micro processing unit (MPU) may be used as a processor.

上述したRAM100Bには、ROM100CやNVM100Dに記憶されたプログラムがCPU100Aによって格納される。格納されたプログラムをCPU100Aが実行することにより、後述する各種の機能が実現され、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   In the above-described RAM 100B, the program stored in the ROM 100C or the NVM 100D is stored by the CPU 100A. When the stored program is executed by the CPU 100A, various functions to be described later are realized, and various processes to be described later are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

次に、図3を参照して、上述したサーバ装置200のハードウェア構成について説明する。   Next, the hardware configuration of the server device 200 described above will be described with reference to FIG.

図3はサーバ装置200のハードウェア構成の一例である。図3に示すように、サーバ装置200は、少なくともプロセッサとしてのCPU200A、RAM200B、ROM200C及びネットワークI/F200Dを含んでいる。サーバ装置200は、必要に応じて、Hard Disk Drive(HDD)200E、入力I/F200F、出力I/F200G、入出力I/F200H、ドライブ装置200Iの少なくとも1つを含んでいてもよい。CPU200Aからドライブ装置200Iまでは、内部バス200Jによって互いに接続されている。少なくともCPU200AとRAM200Bとが協働することによってコンピュータが実現される。尚、CPU200Aに代えて上述したMPUをプロセッサとして利用してもよい。   FIG. 3 is an example of a hardware configuration of the server device 200. As illustrated in FIG. 3, the server device 200 includes at least a CPU 200A as a processor, a RAM 200B, a ROM 200C, and a network I / F 200D. The server device 200 may include at least one of a hard disk drive (HDD) 200E, an input I / F 200F, an output I / F 200G, an input / output I / F 200H, and a drive device 200I as necessary. The CPU 200A to the drive device 200I are connected to each other by an internal bus 200J. At least the CPU 200A and the RAM 200B cooperate to realize a computer. Note that the above-described MPU may be used as a processor instead of the CPU 200A.

入力I/F200Fには、入力装置710が接続される。入力装置710としては、例えばキーボードやマウスなどがある。出力I/F200Gには、表示装置720が接続される。表示装置720としては、例えば液晶ディスプレイがある。入出力I/F200Hには、半導体メモリ730が接続される。半導体メモリ730としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F200Hは、半導体メモリ730に記憶されたプログラムやデータを読み取る。入力I/F200F及び入出力I/F200Hは、例えばUSBポートを備えている。出力I/F200Gは、例えばディスプレイポートを備えている。   An input device 710 is connected to the input I / F 200F. Examples of the input device 710 include a keyboard and a mouse. A display device 720 is connected to the output I / F 200G. An example of the display device 720 is a liquid crystal display. A semiconductor memory 730 is connected to the input / output I / F 200H. Examples of the semiconductor memory 730 include a universal serial bus (USB) memory and a flash memory. The input / output I / F 200 </ b> H reads programs and data stored in the semiconductor memory 730. The input I / F 200F and the input / output I / F 200H include, for example, a USB port. The output I / F 200G includes a display port, for example.

ドライブ装置200Iには、可搬型記録媒体740が挿入される。可搬型記録媒体740としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置200Iは、可搬型記録媒体740に記録されたプログラムやデータを読み込む。ネットワークI/F200Dは、例えばLANポートを備えている。ネットワークI/F200Dは上述した通信ネットワークNWと接続される。   A portable recording medium 740 is inserted into the drive device 200I. Examples of the portable recording medium 740 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 200I reads a program and data recorded on the portable recording medium 740. The network I / F 200D includes, for example, a LAN port. The network I / F 200D is connected to the communication network NW described above.

上述したRAM200Bには、ROM200CやHDD200Eに記憶されたプログラムがCPU200Aによって格納される。RAM200Bには、可搬型記録媒体740に記録されたプログラムがCPU200Aによって格納される。格納されたプログラムをCPU200Aが実行することにより、後述する各種の機能が実現され、また、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   In the above-described RAM 200B, a program stored in the ROM 200C or the HDD 200E is stored by the CPU 200A. In the RAM 200B, the program recorded on the portable recording medium 740 is stored by the CPU 200A. When the stored program is executed by the CPU 200A, various functions to be described later are realized, and various processes to be described later are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

次に、図4から図7を参照して、上述した端末装置100及びサーバ装置200の機能構成について説明する。   Next, functional configurations of the terminal device 100 and the server device 200 described above will be described with reference to FIGS.

図4は端末装置100及びサーバ装置200のブロック図の一例である。図5は患者マスタ記憶部210の一例である。図6は抽出対象記憶部220の一例である。図7はデータ記憶部230の一例である。尚、図4において、端末装置100が備えるハードウェア要素については破線で示している。   FIG. 4 is an example of a block diagram of the terminal device 100 and the server device 200. FIG. 5 is an example of the patient master storage unit 210. FIG. 6 shows an example of the extraction target storage unit 220. FIG. 7 shows an example of the data storage unit 230. In FIG. 4, hardware elements included in the terminal device 100 are indicated by broken lines.

まず、端末装置100について説明する。図4に示すように、端末装置100は制御部110を備えている。制御部110は端末装置100の動作を制御する。制御部110は、現在位置取得部111、患者データ取得部112、及び音声認識部113を備えている。また、制御部110は、データ記録部114、データ送信部115、及び表示制御部116を備えている。尚、制御部110は、例えば上述したCPU100A及びRAM100Bによって実現される。   First, the terminal device 100 will be described. As illustrated in FIG. 4, the terminal device 100 includes a control unit 110. The control unit 110 controls the operation of the terminal device 100. The control unit 110 includes a current position acquisition unit 111, a patient data acquisition unit 112, and a voice recognition unit 113. In addition, the control unit 110 includes a data recording unit 114, a data transmission unit 115, and a display control unit 116. Note that the control unit 110 is realized by, for example, the CPU 100A and the RAM 100B described above.

現在位置取得部111は、RF回路100Eを通じて、看護師Nの現在位置を取得する。より詳しくは、現在位置取得部111は看護師Nが滞在する病室R1,R2毎に設置されたアクセスポイントAP1,AP2との無線通信を利用して、現在位置を取得する。例えば、看護師Nが病室R1に入室すると、現在位置取得部111はアクセスポイントAP1から病室識別データ「801号室」及び病棟識別データ「西病棟(8階)」を現在位置として取得する。これにより、看護師Nの現在位置を特定することができる。   The current position acquisition unit 111 acquires the current position of the nurse N through the RF circuit 100E. More specifically, the current position acquisition unit 111 acquires the current position using wireless communication with the access points AP1 and AP2 installed in the hospital rooms R1 and R2 where the nurse N stays. For example, when the nurse N enters the room R1, the current position acquisition unit 111 acquires the room identification data “room 801” and the ward identification data “West ward (8th floor)” from the access point AP1 as the current position. Thereby, the current position of the nurse N can be specified.

患者データ取得部112は、RF回路100Eを通じて、サーバ装置200から患者データを取得する。より詳しくは、患者データ取得部112は、現在位置取得部111が取得した現在位置に基づいて、現在位置に応じた滞在位置に在室する患者Pの患者ID及び患者Pの呼称を要求する取得要求をサーバ装置200に送信する。詳細は後述するが、サーバ装置200は、患者Pが在室する滞在位置としての病棟及び病室を、患者ID及び患者Pの呼称と対応付けて記憶している。したがって、患者データ取得部112が現在位置に基づいて、上記取得要求をサーバ装置200に送信すると、患者データ取得部112は現在位置に応じた患者Pの滞在位置と対応付けられた患者ID及び患者Pの呼称を患者データとしてサーバ装置200から取得する。   The patient data acquisition unit 112 acquires patient data from the server device 200 through the RF circuit 100E. More specifically, the patient data acquisition unit 112 acquires the patient ID of the patient P who resides in the stay position corresponding to the current position and the name of the patient P based on the current position acquired by the current position acquisition unit 111. The request is transmitted to the server device 200. Although details will be described later, the server device 200 stores a ward and a ward as a staying position where the patient P is present in association with the patient ID and the name of the patient P. Therefore, when the patient data acquisition unit 112 transmits the acquisition request to the server device 200 based on the current position, the patient data acquisition unit 112 includes the patient ID and the patient associated with the stay position of the patient P corresponding to the current position. The name P is acquired from the server device 200 as patient data.

音声認識部113は、外部マイク10を通じて、看護師Nの音声を取得する。音声認識部113は音声を取得すると、取得した音声に対して、音声認識を実行する。これにより、音声認識部113は看護師Nの音声に応じたテキストデータ(以下、単にテキストという)を生成する。尚、音声認識部113は看護師Nの音声以外の音(例えば、足音、物音、騒音といった看護師Nの周囲に存在する音)を看護師Nの音声と併せて取得した場合、ノイズキャンセリング処理を利用して、看護師Nの音声以外の音を消去して、看護師Nの音声を取得する。これにより、音声認識部113の音声認識率が向上する。また、音声に応じたテキスト生成することを音声認識というだけでなく、看護師Nの音声を含む様々な音の中から看護師Nの音声を認識することも音声認識に含めてもよい。   The voice recognition unit 113 acquires the voice of the nurse N through the external microphone 10. When the voice recognition unit 113 acquires the voice, the voice recognition unit 113 performs voice recognition on the acquired voice. Thereby, the voice recognition unit 113 generates text data (hereinafter simply referred to as text) corresponding to the voice of the nurse N. Note that when the voice recognition unit 113 acquires sounds other than the voice of the nurse N (for example, sounds existing around the nurse N such as footsteps, noise, and noise) together with the voice of the nurse N, noise canceling is performed. Using the process, sounds other than the voice of nurse N are erased, and the voice of nurse N is acquired. Thereby, the voice recognition rate of the voice recognition unit 113 is improved. In addition, not only generating the text according to the voice is called voice recognition, but also the voice recognition of the nurse N from various sounds including the voice of the nurse N may be included in the voice recognition.

データ記録部114は音声認識部113によって生成されたテキストに、患者データ取得部112が取得した患者Pの呼称が含まれているか否かを判断する。データ記録部114はテキストに患者Pの呼称が含まれている場合、テキストから患者Pの呼称の後に出現するテキストを抽出し、テキストに含まれている呼称に対応する、患者データ取得部112が取得した患者IDと抽出したテキストとを対応付けて看護記録データに記録する。データ記録部114は看護記録データに患者IDとテキストを記録すると、看護記録データを含む保存要求を生成し、データ送信部115に出力する。データ送信部115は、RF回路100Eを通じて、看護記録データを含む保存要求をサーバ装置200に送信する。   The data recording unit 114 determines whether or not the text generated by the voice recognition unit 113 includes the name of the patient P acquired by the patient data acquisition unit 112. When the name of the patient P is included in the text, the data recording unit 114 extracts the text that appears after the name of the patient P from the text, and the patient data acquisition unit 112 corresponding to the name included in the text The acquired patient ID and the extracted text are associated with each other and recorded in the nursing record data. When the patient ID and the text are recorded in the nursing record data, the data recording unit 114 generates a storage request including the nursing record data and outputs it to the data transmission unit 115. The data transmission unit 115 transmits a storage request including nursing record data to the server device 200 through the RF circuit 100E.

表示制御部116はディスプレイ100Iに表示されるGraphical User Interface(GUI)を制御する。例えば、表示制御部116は、データ記録部114が実行する各種の処理の過程で正常な処理を実行できなかった場合、ディスプレイ100Iに正常な処理が実行されなかったことを表すアラームを表示する。尚、データ記録部114に代えて、現在位置取得部111、患者データ取得部112、音声認識部113などであってもよい。また、表示制御部116は看護記録データを表示してもよい。   The display control unit 116 controls a graphical user interface (GUI) displayed on the display 100I. For example, when the normal process cannot be executed in the course of various processes executed by the data recording unit 114, the display control unit 116 displays an alarm indicating that the normal process has not been executed on the display 100I. Instead of the data recording unit 114, a current position acquisition unit 111, a patient data acquisition unit 112, a voice recognition unit 113, and the like may be used. The display control unit 116 may display nursing record data.

次に、サーバ装置200について説明する。図4に示すように、サーバ装置200は、患者マスタ記憶部210、抽出対象記憶部220、データ記憶部230、通信部240、及びデータ処理部250を備えている。尚、患者マスタ記憶部210、抽出対象記憶部220、及びデータ記憶部230は、例えば上述したHDD200Eによって実現される。通信部240は、例えば上述したネットワークI/F200Dによって実現される。データ処理部250は、例えば上述したCPU200A及びRAM200Bによって実現される。   Next, the server device 200 will be described. As illustrated in FIG. 4, the server device 200 includes a patient master storage unit 210, an extraction target storage unit 220, a data storage unit 230, a communication unit 240, and a data processing unit 250. The patient master storage unit 210, the extraction target storage unit 220, and the data storage unit 230 are realized by the HDD 200E described above, for example. The communication unit 240 is realized by the network I / F 200D described above, for example. The data processing unit 250 is realized by the above-described CPU 200A and RAM 200B, for example.

患者マスタ記憶部210は複数の患者Pに関する患者データをそれぞれ記憶する。具体的には、図5に示すように、患者マスタ記憶部210は、病棟(階数)及び病室によって特定される患者Pの滞在位置、患者ID、並びに患者Pの複数の呼称といった複数の構成要素を対応付けて記憶する。図5では患者IDの一例として患者Pの氏名が示されているが、患者Pを識別できれば、患者Pに付与された識別番号などであってもよい。また、患者IDを患者Pの識別番号と氏名の組合せとしてもよい。また、図5では、第1呼称の一例として患者Pの名字と敬称の組合せが示され、第2呼称の一例として患者Pの名前と敬称の組合せが示されているが、第1呼称及び第2呼称はこれらの組合せに限定されない。例えば、動物病院であれば、名前と敬称の組合せから敬称を省略してもよい。尚、患者データは予め患者マスタ記憶部210に登録されて保存されている。   The patient master storage unit 210 stores patient data related to a plurality of patients P, respectively. Specifically, as illustrated in FIG. 5, the patient master storage unit 210 includes a plurality of components such as a stay position of the patient P specified by a ward (floor) and a hospital room, a patient ID, and a plurality of names of the patient P. Are stored in association with each other. In FIG. 5, the name of the patient P is shown as an example of the patient ID. However, as long as the patient P can be identified, an identification number assigned to the patient P may be used. The patient ID may be a combination of the identification number and name of the patient P. Further, in FIG. 5, the combination of the surname and honorific name of the patient P is shown as an example of the first designation, and the combination of the name and honorific name of the patient P is shown as an example of the second designation. The two names are not limited to these combinations. For example, in the case of an animal hospital, the title may be omitted from the combination of the name and the title. Patient data is registered and stored in the patient master storage unit 210 in advance.

抽出対象記憶部220は患者Pのバイタルサインを表す種々のキーワードを記憶する。具体的には、図6に示すように、抽出対象記憶部220は、キーワード、記録フィールド、及び変換タイプといった複数の構成要素を対応付けて記憶する。キーワードは端末装置100のデータ記録部114が抽出したテキストの中に出現するバイタルサインを表す言葉を特定する文字列である。図6では、キーワードの一例として、体温、血圧、及び脈拍が示されているが、これらに限定されず、例えば呼吸数などを含めてもよい。記録フィールドは、看護記録データが有する複数の領域(フィールド)を特定する識別子である。詳細は後述するが、体温フィールドは、看護記録データにおける体温フィールドに体温を表す数値データを記録することを表している。変換タイプはデータ記録部114が抽出したテキストに出現するキーワードに対応する数値情報を数値データに変換する識別子である。詳細は後述するが、例えば抽出したテキストに「体温は36度5分」が出現した場合、データ記録部114は変換タイプに基づいてキーワード「体温」に対応する数値情報「36度5分」を数値データ「36.5」に変換する。   The extraction target storage unit 220 stores various keywords representing the vital signs of the patient P. Specifically, as illustrated in FIG. 6, the extraction target storage unit 220 stores a plurality of components such as keywords, recording fields, and conversion types in association with each other. The keyword is a character string that specifies a word representing a vital sign that appears in the text extracted by the data recording unit 114 of the terminal device 100. In FIG. 6, body temperature, blood pressure, and pulse are shown as examples of keywords, but are not limited thereto, and may include, for example, respiratory rate. The record field is an identifier that identifies a plurality of areas (fields) included in nursing record data. Although details will be described later, the body temperature field represents recording numerical data representing body temperature in the body temperature field in the nursing record data. The conversion type is an identifier for converting numerical information corresponding to a keyword appearing in the text extracted by the data recording unit 114 into numerical data. Although details will be described later, for example, when “body temperature is 36 degrees and 5 minutes” appears in the extracted text, the data recording unit 114 displays numerical information “36 degrees and 5 minutes” corresponding to the keyword “body temperature” based on the conversion type. It is converted into numerical data “36.5”.

データ記憶部230は看護記録データを記憶する。具体的には、図7に示すように、データ記憶部230は複数の看護記録データ40を記憶する。特に、データ記憶部230は時系列の看護記録データ40を患者ID毎に記憶する。看護記録データ40は患者IDフィールド41、体温フィールド42、血圧(最高/最低)フィールド43、脈拍フィールド44、及び看護記録フィールド45を含んでいる。例えば、患者IDフィールド41には患者Pの患者IDが記録される。例えば、体温フィールド42には患者Pの体温を表す数値データが記録される。血圧(最高/最低)フィールド43及び脈拍フィールド44は、基本的に、体温フィールド42と同様である。看護記録フィールド45にはデータ記録部114が抽出したテキストが記録される。   The data storage unit 230 stores nursing record data. Specifically, as shown in FIG. 7, the data storage unit 230 stores a plurality of nursing record data 40. In particular, the data storage unit 230 stores time-series nursing record data 40 for each patient ID. The nursing record data 40 includes a patient ID field 41, a body temperature field 42, a blood pressure (maximum / minimum) field 43, a pulse field 44, and a nursing record field 45. For example, the patient ID of the patient P is recorded in the patient ID field 41. For example, numerical data representing the body temperature of the patient P is recorded in the body temperature field 42. The blood pressure (maximum / minimum) field 43 and the pulse field 44 are basically the same as the body temperature field 42. In the nursing record field 45, the text extracted by the data recording unit 114 is recorded.

データ処理部250は端末装置100から送信された各種の要求を、通信部240を通じて受け付けると、種々のデータ処理を実行する。例えば、データ処理部250は、端末装置100から現在位置を含む取得要求を受け付けると、現在位置に応じた患者Pの滞在位置と対応付けられた患者ID及び患者Pの第1呼称及び第2呼称を患者マスタ記憶部210から抽出する。データ処理部250は、患者ID等の抽出と併せて、抽出対象記憶部220からキーワード、記録フィールド、及び変換タイプを抽出する。データ処理部250は患者IDなど及びキーワードなどを抽出すると、抽出した患者IDなどを患者データとしてキーワードなどと共に端末装置100に送信する。一方、例えば、データ処理部250は、端末装置100から看護記録データ40を含む保存要求を受け付けると、保存要求に含まれる看護記録データ40をデータ記憶部230に保存する。   When the data processing unit 250 receives various requests transmitted from the terminal device 100 through the communication unit 240, the data processing unit 250 executes various data processing. For example, when the data processing unit 250 receives an acquisition request including the current position from the terminal device 100, the patient ID associated with the stay position of the patient P corresponding to the current position and the first and second names of the patient P Are extracted from the patient master storage unit 210. The data processing unit 250 extracts keywords, recording fields, and conversion types from the extraction target storage unit 220 together with the extraction of the patient ID and the like. When the data processing unit 250 extracts the patient ID and the keyword and the like, the data processing unit 250 transmits the extracted patient ID and the like together with the keyword and the like to the terminal device 100 as patient data. On the other hand, for example, when the data processing unit 250 receives a storage request including the nursing record data 40 from the terminal device 100, the data processing unit 250 stores the nursing record data 40 included in the storage request in the data storage unit 230.

次に、図8から図11を参照して、端末装置100の動作について説明する。   Next, the operation of the terminal device 100 will be described with reference to FIGS.

図8は現在位置取得部111及び患者データ取得部112が実行する取得処理の一例を示すフローチャートである。図8に示すように、まず、現在位置取得部111は看護師Nの現在位置を取得する(ステップS101)。上述したように、例えば看護師Nが病室R1に入室すると、現在位置取得部111はアクセスポイントAP1から病室識別データ及び病棟識別データを現在位置として取得する。   FIG. 8 is a flowchart illustrating an example of acquisition processing executed by the current position acquisition unit 111 and the patient data acquisition unit 112. As shown in FIG. 8, first, the current position acquisition unit 111 acquires the current position of the nurse N (step S101). As described above, for example, when the nurse N enters the room R1, the current position acquisition unit 111 acquires the room identification data and the ward identification data from the access point AP1 as the current position.

ステップS101の処理が完了すると、次いで、現在位置取得部111は病室移動があったか否かを判断する(ステップS102)。例えば、看護師Nが病室R1から病室R2に移動すると、現在位置取得部111は病室移動があったと判断し(ステップS102:YES)、ステップS101の処理を実行する。これにより、現在位置取得部111はアクセスポイントAP2から病棟識別データ及び病室識別データを現在位置として取得する。   When the process of step S101 is completed, the current position acquisition unit 111 then determines whether there has been a patient room movement (step S102). For example, when the nurse N moves from the hospital room R1 to the hospital room R2, the current position acquisition unit 111 determines that there is a patient room movement (step S102: YES), and executes the process of step S101. Thereby, the current position acquisition unit 111 acquires the ward identification data and the room identification data from the access point AP2 as the current position.

一方、看護師Nが病室R1から移動しないと、現在位置取得部111は病室移動がなかったと判断し(ステップS102:NO)、患者データ取得部112はサーバ装置200から患者Pの呼称と患者IDを取得する(ステップS103)。より詳しくは、患者データ取得部112は現在位置を含む取得要求を生成し、データ送信部115が取得要求をサーバ装置200に送信する。例えば、看護師Nが病室R1に在室しており、現在位置取得部111が病棟識別データ「西病棟(8階)」及び病室識別データ「801号室」を現在位置として取得すると、患者データ取得部112は現在位置取得部111が取得した現在位置を含む取得要求を生成し、データ送信部115がその取得要求をサーバ装置200に送信する。サーバ装置200が取得要求に応じたデータ処理を実行することにより、患者データ取得部112は現在位置に応じた患者Pの滞在位置と対応付けられた患者Pの呼称と患者IDを取得する。   On the other hand, if the nurse N does not move from the patient room R1, the current position acquisition unit 111 determines that the patient room has not been moved (step S102: NO), and the patient data acquisition unit 112 receives the name and patient ID of the patient P from the server device 200. Is acquired (step S103). More specifically, the patient data acquisition unit 112 generates an acquisition request including the current position, and the data transmission unit 115 transmits the acquisition request to the server device 200. For example, when the nurse N is present in the ward R1, and the current position acquisition unit 111 acquires the ward identification data “West ward (8th floor)” and the ward identification data “room 801” as the current position, patient data acquisition is performed. The unit 112 generates an acquisition request including the current position acquired by the current position acquisition unit 111, and the data transmission unit 115 transmits the acquisition request to the server device 200. When the server apparatus 200 executes data processing according to the acquisition request, the patient data acquisition unit 112 acquires the name of the patient P and the patient ID associated with the stay position of the patient P according to the current position.

より具体的に説明すると、患者データ取得部112は病棟「西病棟(8階)」及び病室「801号室」の患者ID「〇〇花子」、第1呼称「〇〇さん」及び第2呼称「はなこさん」(図5参照)を患者データとして取得する。同様に、患者データ取得部112は患者ID「佐藤太郎」、第1呼称「さとうさん」及び第2呼称「たろうさん」、並びに患者ID「××祐一」、第1呼称「××くん」及び第2呼称「ゆうくん」をそれぞれ患者データとして取得する。一方で、患者データ取得部112は病室「801号室」と異なる病室「802号室」の患者ID「△△りか」、第1呼称「△△ちゃん」及び第2呼称「りかちゃん」を取得対象から除外する。これにより、看護師Nが看護行為の記録を行う対象の患者Pが限定される。患者データ取得部112は患者データを取得すると、取得した患者データをデータ記録部114に出力する。   More specifically, the patient data acquisition unit 112 includes the patient ID “00 Hanako”, the first name “Mr.“ 00 ”, and the second name“ “Hanako” (see FIG. 5) is acquired as patient data. Similarly, the patient data acquisition unit 112 includes the patient ID “Taro Sato”, the first name “Sato-san” and the second name “Taro-san”, and the patient ID “XX Yuichi”, the first name “XX-kun” and The second designation “Yu-kun” is acquired as patient data. On the other hand, the patient data acquisition unit 112 excludes the patient ID “△△ Rika”, the first name “△△ chan”, and the second name “Rika-chan” of the room “room 802” different from the room “801” from the acquisition target. To do. Thereby, the patient P for whom the nurse N records the nursing action is limited. When the patient data acquisition unit 112 acquires patient data, the patient data acquisition unit 112 outputs the acquired patient data to the data recording unit 114.

図9は音声認識部113が実行する音声認識処理の一例を示すフローチャートである。図10はデータ記録部114が実行する記録処理の一例を示すフローチャートである。図11(a)〜(e)は看護記録データ40を生成するまでの処理を説明するための図である。尚、音声認識部113は音声認識処理を上述した取得処理と並列的に実行してもよい。   FIG. 9 is a flowchart showing an example of a voice recognition process executed by the voice recognition unit 113. FIG. 10 is a flowchart illustrating an example of a recording process executed by the data recording unit 114. FIGS. 11A to 11E are diagrams for explaining processing until the nursing record data 40 is generated. The voice recognition unit 113 may execute the voice recognition process in parallel with the acquisition process described above.

まず、図9に示すように、音声認識部113は看護師Nの音声を取得する(ステップS201)。例えば、図11(a)に示すように、看護師Nが病室R1に在室する患者Pのいずれかに対して発話を行うと、音声認識部113は、外部マイク10を通じて、看護師Nの音声を取得する。ステップS201の処理が完了すると、次いで、音声認識部113は無音区間を検出したか否かを判断する(ステップS202)。無音区間は看護師Nが閾値時間以上発話を行わなかった期間である。無音区間には看護師Nの周囲に存在する音が含まれていてもよい。閾値時間は発話終了を検出可能な数秒程度に適宜設定することができる。本実施形態では一例として閾値時間に3秒が設定されている。   First, as shown in FIG. 9, the voice recognition unit 113 acquires the voice of the nurse N (step S201). For example, as shown in FIG. 11A, when the nurse N speaks to one of the patients P in the room R <b> 1, the voice recognition unit 113 transmits the nurse N's through the external microphone 10. Get audio. When the process of step S201 is completed, the voice recognition unit 113 then determines whether or not a silent section has been detected (step S202). The silent section is a period in which nurse N has not spoken for a threshold time or longer. The silent section may include sounds existing around the nurse N. The threshold time can be appropriately set to about several seconds in which the end of speech can be detected. In the present embodiment, 3 seconds is set as the threshold time as an example.

ここで、音声認識部113は無音区間を検出するまで(ステップS202:NO)、ステップS201の処理を継続する。例えば、図11(a)に示すように、看護師Nが発話を行うと、発話途中又は発話終了時の息継ぎなどにより1秒程度の間(ま)が発生するが、このような間は看護師Nの発話中であると判断し、発話終了と見なさない。相槌についても同様に発話終了と見なさない。したがって、音声認識部113は看護師Nの一連の音声を取得する。   Here, the voice recognition unit 113 continues the process of step S201 until a silent section is detected (step S202: NO). For example, as shown in FIG. 11 (a), when nurse N speaks, about 1 second is generated due to breathing during or after utterance. The teacher N determines that the utterance is in progress, and does not consider the utterance to end. Similarly, the companion is not regarded as the end of the utterance. Therefore, the voice recognition unit 113 acquires a series of voices of the nurse N.

一方、音声認識部113は無音区間を検出すると(ステップS202:YES)、音声認識を実行する(ステップS203)。例えば、図11(a)に示すように、看護師Nが発話を終えて、体温計で患者Pの体温を計測し始めると、体温を計測している間(例えば90秒間)、看護師Nは発話を行わない。このような場合、看護師Nが発話を終えてから閾値時間(例えば3秒)以上経過するため、音声認識部113は無音区間を検出し、音声認識を実行する。これにより、図11(c)に示すように、音声認識部113は看護師Nの音声から音声認識の認識結果としてテキストT1を、発話日時と共に生成する。   On the other hand, when the voice recognition unit 113 detects a silent section (step S202: YES), it performs voice recognition (step S203). For example, as shown in FIG. 11 (a), when the nurse N finishes speaking and starts measuring the temperature of the patient P with a thermometer, while the temperature is being measured (for example, 90 seconds), the nurse N Do not speak. In such a case, since the threshold time (for example, 3 seconds) has elapsed since the nurse N finished speaking, the voice recognition unit 113 detects a silent section and executes voice recognition. As a result, as shown in FIG. 11C, the voice recognition unit 113 generates a text T1 from the voice of the nurse N as a voice recognition recognition result together with the utterance date and time.

ステップS203の処理が完了すると、音声認識部113は生成したテキストを一発話分のテキストとして保持し(ステップS204)、再び、ステップS201の処理から順に後続の処理を実行する。これにより、図11(b)に示すように、患者Pの体温の計測を終えて、看護師Nが発話を再開すると、図11(d)に示すように、音声認識部113は看護師Nの音声から一発話分のテキストT2を、発話日時と共に生成して保持する。   When the process of step S203 is completed, the speech recognition unit 113 holds the generated text as text for one utterance (step S204), and executes subsequent processes again in order from the process of step S201. Thus, as shown in FIG. 11 (b), when the measurement of the temperature of the patient P is completed and the nurse N resumes speaking, the voice recognition unit 113, as shown in FIG. The text T2 for one utterance is generated and held together with the utterance date and time from the voice.

次に、図10に示すように、データ記録部114は、音声認識部113から一発話分のテキストを取得し(ステップS301)、呼称が含まれるか否かを判断する(ステップS302)。より詳しくは、データ記録部114は、音声認識部113から一発話分のテキストを発話日時順に取得し、取得したテキストに、ステップS103の処理で取得した第1呼称又は第2呼称のいずれかが含まれるか否かを判断する。例えば、患者データ取得部112が病室「801号室」に在室する患者Pの第1呼称「〇〇さん」、「さとうさん」及び「××くん」、並びに、第2呼称「はなこさん」、「たろうさん」及び「ゆうくん」を取得していた場合に、データ記録部114がテキストT1(図11(c)参照)を取得すると、データ記録部114は第1呼称及び第2呼称のいずれも含まれないと判断する(ステップS302:NO)。この場合、データ記録部114はテキストT1を後続の処理対象から除外し、再びステップS301の処理を実行する。   Next, as shown in FIG. 10, the data recording unit 114 acquires text for one utterance from the speech recognition unit 113 (step S301), and determines whether a name is included (step S302). More specifically, the data recording unit 114 acquires the text for one utterance from the speech recognition unit 113 in the order of utterance date and time, and the acquired text is either the first name or the second name acquired in the process of step S103. Judge whether it is included. For example, the patient data acquisition unit 112 has a first name “Mr. OO”, “Mr. Sato” and “XX-kun”, and a second name “Hanako-san” of the patient P who is in the room “room 801”. If “Taro-san” and “Yu-kun” have been acquired, and the data recording unit 114 acquires the text T1 (see FIG. 11C), the data recording unit 114 is in either the first designation or the second designation. Is not included (step S302: NO). In this case, the data recording unit 114 excludes the text T1 from the subsequent processing target and executes the process of step S301 again.

尚、仮に、看護師Nが発話の中で病室「802号室」に滞在する患者Pの第2呼称「りかちゃん」を発話し、テキストT1に第2呼称「りかちゃん」が含まれていても、患者データ取得部112が取得した第1呼称及び第2呼称のいずれとも異なる。このため、データ記録部114は、同様に、テキストT1を後続の処理対象から除外し、再びステップS301の処理を実行する。これにより、患者ID「△△りか」の看護記録データ40が誤って生成されることが回避される。   If nurse N utters the second name “Lika-chan” of patient P who stays in hospital room “802” in the utterance and the text T1 contains the second name “Lika-chan”, the patient It is different from both the first name and the second name acquired by the data acquisition unit 112. Therefore, similarly, the data recording unit 114 excludes the text T1 from the subsequent processing target, and executes the process of step S301 again. Thereby, it is avoided that the nursing record data 40 of the patient ID “Δ △ Rika” is generated by mistake.

一方で、データ記録部114がテキストT2(図11(d)参照)を取得すると、データ記録部114は第1呼称「〇〇さん」が含まれると判断する(ステップS302:YES)。この場合、データ記録部114はテキストT2から、呼称後のテキストを抽出する(ステップS303)。すなわち、データ記録部114はテキストT2から呼称「〇〇さん」より後のテキストT2´を抽出する。尚、呼称「〇〇さん」の直後に読点「、」が付与されている場合、データ記録部114はテキストT2から呼称「〇〇さん」及び読点「、」より後のテキストT2´を抽出する。データ記録部114は句点「。」についても読点「、」と同じ処理を実行する。   On the other hand, when the data recording unit 114 acquires the text T2 (see FIG. 11D), the data recording unit 114 determines that the first name “Mr. OO” is included (step S302: YES). In this case, the data recording unit 114 extracts the text after the name from the text T2 (step S303). That is, the data recording unit 114 extracts the text T2 ′ after the name “Mr. OO” from the text T2. If the reading “,” is given immediately after the name “OO”, the data recording unit 114 extracts the name “00” and the text T2 ′ after the reading “,” from the text T2. . The data recording unit 114 executes the same processing as the reading “,” for the phrase “.”.

ステップS303の処理が完了すると、次いで、データ記録部114はテキストT2´にキーワードが含まれるか否かを判断する(ステップS304)。例えば、図11(d)に示すように、テキストT2´にはキーワード「体温」が含まれている。データ記録部114はテキストT2´にキーワードが含まれると判断すると(ステップS304:YES)、キーワードに対応する数値情報を抽出する(ステップS305)。より詳しくは、データ記録部114はキーワードに対応する数値情報を抽出して、数値情報を変換タイプに基づいて数値データに変換する。したがって、データ記録部114はキーワード「体温」に対応する数値情報「36度5分」を抽出し、抽出した数値情報を数値データ「36.5」に変換する。尚、データ記録部114はテキストT2´にキーワードが含まれないと判断すると(ステップS304:NO)、ステップS305の処理をスキップする。   When the process of step S303 is completed, the data recording unit 114 then determines whether or not a keyword is included in the text T2 ′ (step S304). For example, as shown in FIG. 11D, the text “T2 ′” includes the keyword “body temperature”. When the data recording unit 114 determines that the keyword is included in the text T2 ′ (step S304: YES), it extracts numerical information corresponding to the keyword (step S305). More specifically, the data recording unit 114 extracts numerical information corresponding to the keyword, and converts the numerical information into numerical data based on the conversion type. Therefore, the data recording unit 114 extracts the numerical information “36 degrees and 5 minutes” corresponding to the keyword “body temperature” and converts the extracted numerical information into numerical data “36.5”. If the data recording unit 114 determines that the keyword is not included in the text T2 ′ (step S304: NO), the process of step S305 is skipped.

ステップS305の処理が完了した場合、又は、ステップS305の処理がスキップされた場合、データ記録部114は患者IDと抽出結果を対応付けて記録する(ステップS306)。より詳しくは、データ記録部114は患者IDと抽出結果としてのテキストT2´を看護記録データ40における患者IDフィールド41及び看護記録フィールド45にそれぞれ記録する。その際、データ記録部114は発話日時に応じた発話日及び発話時間帯も併せて記録してもよい。これにより、図11(e)に示す看護記録データ40において、体温フィールド42に数値データを記録していない看護記録データ40が生成される。ステップS306の処理が完了すると、看護記録データ40の保存要求を送信し(ステップS307)、ステップS301の処理を再び実行する。   When the process of step S305 is completed or when the process of step S305 is skipped, the data recording unit 114 records the patient ID and the extraction result in association with each other (step S306). More specifically, the data recording unit 114 records the patient ID and the text T2 ′ as the extraction result in the patient ID field 41 and the nursing record field 45 in the nursing record data 40, respectively. At that time, the data recording unit 114 may also record an utterance date and an utterance time zone corresponding to the utterance date and time. As a result, in the nursing record data 40 shown in FIG. 11E, nursing record data 40 in which numerical data is not recorded in the body temperature field 42 is generated. When the process of step S306 is completed, a request to save nursing record data 40 is transmitted (step S307), and the process of step S301 is executed again.

尚、患者データ取得部112が複数の患者IDを取得していた場合(図8参照)、データ記録部114は、まず、複数の患者IDの中からテキストT2に含まれる第1呼称又は第2呼称と対応付けられた患者IDを特定する。そして、データ記録部114は、特定した患者IDとテキストT2´を対応付けて看護記録データ40に記録する。また、データ記録部114が数値情報を抽出していた場合、データ記録部114は特定した患者IDとテキストT2´に、抽出した数値情報を変換した数値データも対応付ける。これにより、図11(e)に示すように、体温フィールド42に数値データを記録した看護記録データ40が生成される。ステップS306の処理が完了すると、看護記録データ40の保存要求を送信する。   In addition, when the patient data acquisition unit 112 has acquired a plurality of patient IDs (see FIG. 8), the data recording unit 114 first selects the first name or the second name included in the text T2 from the plurality of patient IDs. The patient ID associated with the name is specified. Then, the data recording unit 114 records the identified patient ID and the text T2 ′ in association with the nursing record data 40. When the data recording unit 114 has extracted numerical information, the data recording unit 114 also associates numerical data obtained by converting the extracted numerical information with the identified patient ID and the text T2 ′. Thereby, as shown in FIG. 11E, nursing record data 40 in which numerical data is recorded in the body temperature field 42 is generated. When the process of step S306 is completed, a request to save nursing record data 40 is transmitted.

次に、図12及び図13を参照して、サーバ装置200の動作を説明する。   Next, the operation of the server device 200 will be described with reference to FIGS. 12 and 13.

図12はデータ処理部250が実行する要求処理の一例を示すフローチャートである。図13はデータ記憶部230の他の一例である。まず、データ処理部250は端末装置100から取得要求を受け付けるまで待機する(ステップS401:NO)。データ処理部250は端末装置100から取得要求を受け付けると(ステップS401:YES)、患者の呼称と患者IDを端末装置100に向けて送信する(ステップS402)。より詳しくは、データ処理部250は取得要求が含む現在位置に基づいて患者マスタ記憶部210を検索し、現在位置に応じた患者Pの滞在位置と対応付けられた患者の呼称と患者IDを抽出する。データ処理部250は患者の呼称と患者IDを抽出すると、抽出した患者の呼称と患者IDを患者データとして端末装置100に向けて送信する。   FIG. 12 is a flowchart showing an example of request processing executed by the data processing unit 250. FIG. 13 shows another example of the data storage unit 230. First, the data processing unit 250 waits until an acquisition request is received from the terminal device 100 (step S401: NO). When receiving an acquisition request from the terminal device 100 (step S401: YES), the data processing unit 250 transmits the name of the patient and the patient ID to the terminal device 100 (step S402). More specifically, the data processing unit 250 searches the patient master storage unit 210 based on the current position included in the acquisition request, and extracts the patient name and patient ID associated with the stay position of the patient P corresponding to the current position. To do. When the data processor 250 extracts the patient name and patient ID, the data processor 250 transmits the extracted patient name and patient ID to the terminal device 100 as patient data.

ステップS402の処理が完了すると、データ処理部250は端末装置100から保存要求を受け付けるまで待機する(ステップS403:NO)。データ処理部250は端末装置100から保存要求を受け付けると(ステップS403:YES)、看護記録データ40を保存する(ステップS404)。より詳しくは、データ処理部250は保存要求が含む看護記録データ40をデータ記憶部230に保存する。これにより、図13に示すように、データ記憶部230は新たに生成された看護記録データ40を記憶する。   When the process of step S402 is completed, the data processing unit 250 waits until a storage request is received from the terminal device 100 (step S403: NO). When the data processing unit 250 receives a storage request from the terminal device 100 (step S403: YES), the data processing unit 250 stores the nursing record data 40 (step S404). More specifically, the data processing unit 250 stores the nursing record data 40 included in the storage request in the data storage unit 230. Thereby, as shown in FIG. 13, the data storage part 230 memorize | stores the nursing record data 40 newly produced | generated.

以上、本実施形態によれば、端末装置100は現在位置取得部111と患者データ取得部112と音声認識部113とデータ記録部114とを備えている。現在位置取得部111は看護師Nの現在位置を取得する。患者データ取得部112は患者マスタ記憶部210から、現在位置取得部111が取得した現在位置に応じた患者Pの滞在位置と対応付けられた呼称1及び呼称2並びに患者IDを取得する。音声認識部113は看護師Nの音声を取得し、取得した音声に対して、音声認識を実行する。データ記録部114は音声認識に基づいて生成されたテキストT2に、取得した呼称1又は呼称2が含まれているか否かを判断する。データ記録部114は呼称1又は呼称2が含まれている場合、音声に基づき、患者Pに関するテキストT2´又は音声データを記録対象情報として生成し、テキストT2に含まれている呼称に対応する患者IDと記録対象情報とを対応付けて看護記録データ40に記録する。これにより、看護師Nが患者Pに行った看護行為を、従来の手法と比較してより簡便に記録することができる。   As described above, according to the present embodiment, the terminal device 100 includes the current position acquisition unit 111, the patient data acquisition unit 112, the voice recognition unit 113, and the data recording unit 114. The current position acquisition unit 111 acquires the current position of the nurse N. The patient data acquisition unit 112 acquires from the patient master storage unit 210 the names 1 and 2 and the patient ID associated with the stay position of the patient P corresponding to the current position acquired by the current position acquisition unit 111. The voice recognition unit 113 acquires the voice of the nurse N and performs voice recognition on the acquired voice. The data recording unit 114 determines whether or not the acquired name 1 or name 2 is included in the text T2 generated based on the speech recognition. When the name 1 or the name 2 is included, the data recording unit 114 generates text T2 ′ or voice data related to the patient P as recording target information based on the voice, and corresponds to the name included in the text T2. The ID and the record target information are associated with each other and recorded in the nursing record data 40. Thereby, the nursing action performed by the nurse N on the patient P can be more easily recorded as compared with the conventional method.

例えば、タブレット端末への入力の手間を削減するために、看護師Nと患者Pの会話に対して音声認識を行い、その結果に基づいて看護記録データ40を生成することも考えられる。しかしながら、この場合、どの患者Pの看護記録データ40であるのかを看護師Nに選択させる処理が求められ、依然として入力の手間が生じる。また、特定の言葉を認識した場合に、その後の音声認識の結果から看護記録データ40を生成することも考えられる。しかしながら、やはり同様に、どの患者Pの看護記録データ40であるのかを看護師Nに選択させる処理が求められる。   For example, in order to reduce the trouble of inputting to the tablet terminal, it is conceivable to perform voice recognition on the conversation between the nurse N and the patient P and generate the nursing record data 40 based on the result. However, in this case, a process for causing the nurse N to select which patient's P is the nursing record data 40 is required, and input is still troublesome. In addition, when a specific word is recognized, it is possible to generate nursing record data 40 from the result of subsequent speech recognition. However, similarly, a process for causing the nurse N to select which patient P is the nursing record data 40 is also required.

そこで、患者Pの呼称を認識することも考えられる。しかしながら、患者Pの呼称としては名字が一般的であったり、看護師Nと患者Pとの雑談の中で患者Pと異なる患者の名字(例えば、その病室に在室していない患者の名字)を看護師Nと患者Pのどちらかが発話したりする場合もある。この場合、看護記録を表すテキストに看護を行っていない対象の患者の患者IDが対応付けられるおそれがあり、看護対象の患者に対する記録が残らない可能性がある。   Therefore, it is possible to recognize the name of the patient P. However, the surname is generally used as the name of the patient P, or the surname of the patient different from the patient P in the chat between the nurse N and the patient P (for example, the surname of the patient who is not in the room) In some cases, either nurse N or patient P speaks. In this case, there is a possibility that the patient ID of the patient who is not performing nursing is associated with the text representing the nursing record, and there is a possibility that no record is left for the patient to be nursing.

ところが、上述したように、本実施形態では、看護師Nが看護対象の患者Pの呼称を発話すれば、その呼称と対応付けられた患者IDと看護師Nが発話した音声のテキストが対応付けられる。このため、看護師Nが患者Pに行った看護行為を、従来の手法と比較してより簡便かつ正確に記録することができる。   However, as described above, in this embodiment, when the nurse N speaks the name of the patient P to be nursing, the patient ID associated with the name is associated with the voice text spoken by the nurse N. It is done. For this reason, the nursing action performed by the nurse N on the patient P can be recorded more easily and accurately than the conventional method.

以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述した実施形態では、外部マイク10を利用したが、端末装置100を看護師Nの口元に近づけて内部マイク100Jを利用して、看護師Nの音声を取得してもよい。例えば、端末装置100は看護師Nの音声と現在位置とをサーバ装置200に送信し、端末装置100が実行する各種の処理をサーバ装置200が実行するようにしてもよい。また、上述した実施形態では医療分野を一例として説明したが、町内会の見守り(又は見回り)活動の記録を音声から生成するようにしてもよい。例えば、見守り活動の担当者が各戸を訪問して高齢者などの安否や健康状態の記録を担当者の音声から生成してもよい。この際、現在位置は例えばGlobal Positioning System(GPS)機能を利用して取得し、病棟及び病室に代えて、各戸の住所との対応関係を判断すればよい。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible. For example, in the embodiment described above, the external microphone 10 is used. However, the voice of the nurse N may be acquired using the internal microphone 100J with the terminal device 100 brought close to the mouth of the nurse N. For example, the terminal device 100 may transmit the voice of the nurse N and the current position to the server device 200, and the server device 200 may execute various processes executed by the terminal device 100. In the above-described embodiment, the medical field has been described as an example. However, a record of the monitoring (or tour) activity of the neighborhood association may be generated from sound. For example, a person in charge of watching activity may visit each door and generate a record of the safety and health status of the elderly from the voice of the person in charge. At this time, the current position may be acquired using, for example, a Global Positioning System (GPS) function, and the correspondence with the address of each house may be determined instead of the ward and the ward.

さらに、上述した実施形態では、データ記録部114がテキストT2´の全部を看護記録データ40に記録したが、データ記録部114は、テキストT2´の一部を看護記録データ40に記録してもよい。さらに、上述した実施形態では、データ記録部114がテキストT2´を看護記録データ40に記録したが、データ記録部114は、テキストT2´に代えて、看護師Nの音声に関する音声データの全部又は一部を看護記録データ40に記録してもよい。   Further, in the above-described embodiment, the data recording unit 114 records the entire text T2 ′ in the nursing record data 40. However, the data recording unit 114 may record a part of the text T2 ′ in the nursing record data 40. Good. Further, in the above-described embodiment, the data recording unit 114 records the text T2 ′ in the nursing record data 40. However, the data recording unit 114 replaces the text T2 ′ with all of the voice data related to the voice of the nurse N or A part may be recorded in the nursing record data 40.

なお、以上の説明に関して更に以下の付記を開示する。
(付記1)記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理をコンピュータに実行させる記録プログラム。
(付記2)前記記録対象情報は、前記音声に対する前記音声認識の結果のうち、前記呼称の後に出現する第2文字列の少なくとも一部である、ことを特徴とする付記1に記載の記録プログラム。
(付記3)前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値と前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、処理を含むことを特徴とする付記2に記載の記録プログラム。
(付記4)前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値情報を数値データに変換し、変換した数値データと前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、処理を含むことを特徴とする付記2に記載の記録プログラム。
(付記5)前記音声認識を行う処理は、取得した前記音声から閾値時間以上の無音期間を検出するまで前記音声認識を行わず、取得した前記音声から閾値時間以上の無音期間を検出すると、前記音声認識を行う、ことを特徴とする付記1から4のいずれか1項に記載の記録プログラム。
(付記6)前記現在位置を取得する処理は、前記記録対象者が滞在する空間毎に配置された機器との無線通信を利用して、前記現在位置を取得する、ことを特徴とする付記1から5のいずれか1項に記載の記録プログラム。
(付記7)記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理をコンピュータが実行する記録方法。
(付記8)記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理を実行する制御部を備える記録装置。
(付記9)前記記録対象情報は、前記音声に対する前記音声認識の結果のうち、前記呼称の後に出現する第2文字列の少なくとも一部である、ことを特徴とする付記8に記載の記録装置。
(付記10)前記制御部は、前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値と前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、ことを特徴とする付記9に記載の記録装置。
(付記11)前記制御部は、前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値情報を数値データに変換し、変換した数値データと前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、ことを特徴とする付記9に記載の記録装置。
(付記12)前記制御部は、取得した前記音声から閾値時間以上の無音期間を検出するまで前記音声認識を行わず、取得した前記音声から閾値時間以上の無音期間を検出すると、前記音声認識を行う、ことを特徴とする付記8から11のいずれか1項に記載の記録装置。
(付記13)前記制御部は、前記記録対象者が滞在する空間毎に配置された機器との無線通信を利用して、前記現在位置を取得する、ことを特徴とする付記8から12のいずれか1項に記載の記録装置。
In addition, the following additional notes are disclosed regarding the above description.
(Supplementary note 1) Acquires the current position of the recording person, obtains the voice of the recording person, and stores the recorded person's stay position, name, and identifier in association with each other according to the acquired current position. The name and identifier associated with the stay position are acquired, voice recognition is performed on the acquired voice, and the acquired name is included in the first character string generated based on the voice recognition. If the name is included, the recording target information on the recording target person is generated based on the voice, and the name corresponding to the name included in the first character string is generated. A recording program for causing a computer to execute a process of recording an identifier and the recording target information in association with each other.
(Supplementary note 2) The recording program according to supplementary note 1, wherein the recording target information is at least a part of a second character string that appears after the designation among the results of the speech recognition for the speech. .
(Supplementary Note 3) It is determined whether or not the second character string includes a specific character string representing a vital sign. If the specific character string is included, the second character string corresponds to the specific character string. The recording program according to appendix 2, including a process of associating a numerical value with the identifier corresponding to the name and recording the same in an area different from the second character string.
(Supplementary Note 4) It is determined whether or not the second character string includes a specific character string representing a vital sign. If the specific character string is included, the second character string corresponds to the specific character string. Additional processing comprising: converting numerical information into numerical data, associating the converted numerical data with the identifier corresponding to the designation, and recording in a different area from the second character string 2. The recording program according to 2.
(Additional remark 5) The process which performs the said voice recognition does not perform the said voice recognition until it detects the silent period more than threshold time from the acquired said voice, and if the silent period more than threshold time is detected from the acquired said voice, The recording program according to any one of appendices 1 to 4, wherein voice recording is performed.
(Additional remark 6) The process which acquires the said present position acquires the said present position using the radio | wireless communication with the apparatus arrange | positioned for every space where the said recording subject stays, The additional remark 1 characterized by the above-mentioned. 6. The recording program according to any one of items 1 to 5.
(Supplementary note 7) Acquires the current position of the recording person, acquires the voice of the recording person, and stores the recorded person's stay position, name, and identifier in association with each other according to the acquired current position. The name and identifier associated with the stay position are acquired, voice recognition is performed on the acquired voice, and the acquired name is included in the first character string generated based on the voice recognition. If the name is included, the recording target information on the recording target person is generated based on the voice, and the name corresponding to the name included in the first character string is generated. A recording method in which a computer executes a process of recording an identifier and the recording target information in association with each other.
(Supplementary note 8) Acquires the current position of the recording person, acquires the voice of the recording person, and stores the recorded person's stay position, name, and identifier in association with each other according to the acquired current position. The name and identifier associated with the stay position are acquired, voice recognition is performed on the acquired voice, and the acquired name is included in the first character string generated based on the voice recognition. If the name is included, the recording target information on the recording target person is generated based on the voice, and the name corresponding to the name included in the first character string is generated. A recording apparatus comprising a control unit that executes processing for recording an identifier in association with the recording target information.
(Supplementary note 9) The recording apparatus according to supplementary note 8, wherein the recording target information is at least a part of a second character string that appears after the designation among the results of the speech recognition for the speech. .
(Additional remark 10) The said control part judges whether the said 2nd character string contains the specific character string showing vital sign, and when the said specific character string is contained, this specific character string is contained. The recording apparatus according to appendix 9, wherein a numerical value corresponding to a character string and the identifier corresponding to the name are associated with each other and recorded in an area different from the second character string.
(Additional remark 11) The said control part judges whether the specific character string showing vital sign is contained in the said 2nd character string, and when the said specific character string is contained, this specific character string is contained. Numerical value information corresponding to a character string is converted into numerical data, the converted numerical data is associated with the identifier corresponding to the name, and recorded in an area different from the second character string, The recording apparatus according to appendix 9.
(Additional remark 12) The said control part does not perform the said voice recognition until it detects the silence period more than threshold time from the acquired said audio | voice, If the silence period more than threshold time is detected from the acquired said voice, the said voice recognition will be carried out The recording apparatus according to any one of appendices 8 to 11, wherein the recording device is performed.
(Additional remark 13) The said control part acquires the said present position using the radio | wireless communication with the apparatus arrange | positioned for every space where the said recording subject stays. The recording apparatus according to claim 1.

S 記録システム
100 端末装置
110 制御部
111 現在位置取得部
112 患者データ取得部
113 音声認識部
114 データ記録部
115 データ送信部
116 表示制御部
200 サーバ装置
210 患者マスタ記憶部
220 抽出対象記憶部
230 データ記憶部
240 通信部
250 データ処理部
S Recording system 100 Terminal device 110 Control unit 111 Current position acquisition unit 112 Patient data acquisition unit 113 Voice recognition unit 114 Data recording unit 115 Data transmission unit 116 Display control unit 200 Server device 210 Patient master storage unit 220 Extraction target storage unit 230 Data Storage unit 240 Communication unit 250 Data processing unit

Claims (8)

記録者の現在位置を取得し、
前記記録者の音声を取得し、
記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、
取得した前記音声に対して、音声認識を行い、
前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、
前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、
前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、
処理をコンピュータに実行させる記録プログラム。
Get the current location of the logger,
Obtain the voice of the recorder,
From the storage unit that stores the stay position, name, and identifier of the person to be recorded in association with each other, obtain the name and identifier associated with the stay position according to the acquired current position,
Perform voice recognition on the acquired voice,
Determining whether or not the acquired name is included in the first character string generated based on the voice recognition;
If the name is included, based on the voice, to generate recording target information about the recording target person,
Recording the identifier corresponding to the name included in the first character string and the recording target information in association with each other;
A recording program that causes a computer to execute processing.
前記記録対象情報は、前記音声に対する前記音声認識の結果のうち、前記呼称の後に出現する第2文字列の少なくとも一部である、
ことを特徴とする請求項1に記載の記録プログラム。
The recording target information is at least a part of a second character string that appears after the designation among the results of the speech recognition for the speech.
The recording program according to claim 1.
前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、
前記特定の文字列が含まれている場合、該特定の文字列に対応する数値と前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、
処理を含むことを特徴とする請求項2に記載の記録プログラム。
Determining whether or not the second character string includes a specific character string representing a vital sign;
When the specific character string is included, the numerical value corresponding to the specific character string and the identifier corresponding to the name are associated with each other, and recorded in an area different from the second character string,
The recording program according to claim 2, further comprising a process.
前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、
前記特定の文字列が含まれている場合、該特定の文字列に対応する数値情報を数値データに変換し、変換した数値データと前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、
処理を含むことを特徴とする請求項2に記載の記録プログラム。
Determining whether or not the second character string includes a specific character string representing a vital sign;
When the specific character string is included, numerical information corresponding to the specific character string is converted into numerical data, the converted numerical data is associated with the identifier corresponding to the designation, and the second Record in a separate area from the string,
The recording program according to claim 2, further comprising a process.
前記音声認識を行う処理は、取得した前記音声から閾値時間以上の無音期間を検出するまで前記音声認識を行わず、取得した前記音声から閾値時間以上の無音期間を検出すると、前記音声認識を行う、
ことを特徴とする請求項1から4のいずれか1項に記載の記録プログラム。
The process of performing the speech recognition does not perform the speech recognition until a silence period longer than a threshold time is detected from the acquired voice, and performs the voice recognition when a silence period longer than the threshold time is detected from the acquired voice. ,
The recording program according to any one of claims 1 to 4, wherein:
前記現在位置を取得する処理は、前記記録対象者が滞在する空間毎に配置された機器との無線通信を利用して、前記現在位置を取得する、
ことを特徴とする請求項1から5のいずれか1項に記載の記録プログラム。
The process of acquiring the current position is to acquire the current position using wireless communication with a device arranged in each space where the recording target person stays.
The recording program according to any one of claims 1 to 5, wherein:
記録者の現在位置を取得し、
前記記録者の音声を取得し、
記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、
取得した前記音声に対して、音声認識を行い、
前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、
前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、
前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、
処理をコンピュータが実行する記録方法。
Get the current location of the logger,
Obtain the voice of the recorder,
From the storage unit that stores the stay position, name, and identifier of the person to be recorded in association with each other, obtain the name and identifier associated with the stay position according to the acquired current position,
Perform voice recognition on the acquired voice,
Determining whether or not the acquired name is included in the first character string generated based on the voice recognition;
If the name is included, based on the voice, to generate recording target information about the recording target person,
Recording the identifier corresponding to the name included in the first character string and the recording target information in association with each other;
A recording method in which processing is executed by a computer.
記録者の現在位置を取得し、
前記記録者の音声を取得し、
記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、
取得した前記音声に対して、音声認識を行い、
前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、
前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、
前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、
処理を実行する制御部を備える記録装置。
Get the current location of the logger,
Obtain the voice of the recorder,
From the storage unit that stores the stay position, name, and identifier of the person to be recorded in association with each other, obtain the name and identifier associated with the stay position according to the acquired current position,
Perform voice recognition on the acquired voice,
Determining whether or not the acquired name is included in the first character string generated based on the voice recognition;
If the name is included, based on the voice, to generate recording target information about the recording target person,
Recording the identifier corresponding to the name included in the first character string and the recording target information in association with each other;
A recording apparatus including a control unit that executes processing.
JP2017132642A 2017-07-06 2017-07-06 Recording program, recording method, and recording device Active JP6819489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017132642A JP6819489B2 (en) 2017-07-06 2017-07-06 Recording program, recording method, and recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017132642A JP6819489B2 (en) 2017-07-06 2017-07-06 Recording program, recording method, and recording device

Publications (2)

Publication Number Publication Date
JP2019016137A true JP2019016137A (en) 2019-01-31
JP6819489B2 JP6819489B2 (en) 2021-01-27

Family

ID=65358612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017132642A Active JP6819489B2 (en) 2017-07-06 2017-07-06 Recording program, recording method, and recording device

Country Status (1)

Country Link
JP (1) JP6819489B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140176A (en) * 2019-03-01 2020-09-03 株式会社ネイン Information processing system, information processing device, information processing method and computer program
JP2021052821A (en) * 2019-09-26 2021-04-08 大和ハウス工業株式会社 Care system
JP6937484B1 (en) * 2021-02-10 2021-09-22 株式会社エクサウィザーズ Business support methods, systems, and programs
JP6995273B1 (en) 2021-02-10 2022-01-14 株式会社エクサウィザーズ Business support methods, systems and programs
JP6995275B1 (en) 2021-02-10 2022-01-14 株式会社エクサウィザーズ Business support methods, systems and programs
JP7402505B2 (en) 2020-01-16 2023-12-21 株式会社ケアコム Record management system and input terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059251A (en) * 2010-08-11 2012-03-22 Toshiba Corp Report creation support system
JP2013054647A (en) * 2011-09-06 2013-03-21 Toshiba Tec Corp Medical support system and server device
WO2015125810A1 (en) * 2014-02-19 2015-08-27 株式会社 東芝 Information processing device and information processing method
JP2016206959A (en) * 2015-04-23 2016-12-08 株式会社ナカヨ Nursing support device using conversation voice
WO2017010506A1 (en) * 2015-07-13 2017-01-19 帝人株式会社 Information processing apparatus, information processing method, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059251A (en) * 2010-08-11 2012-03-22 Toshiba Corp Report creation support system
JP2013054647A (en) * 2011-09-06 2013-03-21 Toshiba Tec Corp Medical support system and server device
WO2015125810A1 (en) * 2014-02-19 2015-08-27 株式会社 東芝 Information processing device and information processing method
JP2016206959A (en) * 2015-04-23 2016-12-08 株式会社ナカヨ Nursing support device using conversation voice
WO2017010506A1 (en) * 2015-07-13 2017-01-19 帝人株式会社 Information processing apparatus, information processing method, and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140176A (en) * 2019-03-01 2020-09-03 株式会社ネイン Information processing system, information processing device, information processing method and computer program
JP2021052821A (en) * 2019-09-26 2021-04-08 大和ハウス工業株式会社 Care system
JP7336938B2 (en) 2019-09-26 2023-09-01 大和ハウス工業株式会社 care system
JP7402505B2 (en) 2020-01-16 2023-12-21 株式会社ケアコム Record management system and input terminal
JP6937484B1 (en) * 2021-02-10 2021-09-22 株式会社エクサウィザーズ Business support methods, systems, and programs
JP6995273B1 (en) 2021-02-10 2022-01-14 株式会社エクサウィザーズ Business support methods, systems and programs
JP6995275B1 (en) 2021-02-10 2022-01-14 株式会社エクサウィザーズ Business support methods, systems and programs
JP2022122727A (en) * 2021-02-10 2022-08-23 株式会社エクサウィザーズ Business support method and system, and program
JP2022122726A (en) * 2021-02-10 2022-08-23 株式会社エクサウィザーズ Business support method and system, and program
JP2022122809A (en) * 2021-02-10 2022-08-23 株式会社エクサウィザーズ Business support method and system, and program

Also Published As

Publication number Publication date
JP6819489B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP6819489B2 (en) Recording program, recording method, and recording device
US11238871B2 (en) Electronic device and control method thereof
EP3268881B1 (en) Method and wearable device for obtaining audio data for diagnosis
US20090326937A1 (en) Using personalized health information to improve speech recognition
US11031006B2 (en) Information processing apparatus, information processing method, and program
EP3866160A1 (en) Electronic device and control method thereof
JP2019527864A (en) Virtual health assistant to promote a safe and independent life
CN107910073A (en) A kind of emergency treatment previewing triage method and device
US20100225450A1 (en) Delivering media as compensation for cognitive deficits using labeled objects in surroundings
CN109427331A (en) Audio recognition method and device
US10152972B1 (en) Conversational agent
US20080147439A1 (en) User recognition/identification via speech for a personal health system
JP2008250664A (en) System for managing nursing necessity degree
JP2019175052A (en) Caring behavior estimation system
JP2021064284A (en) Cognitive function evaluation system, cognitive function evaluation method, and program
CN109427332B (en) Electronic device performing operation using voice command and method of operating the same
JP2023113525A (en) Information processing method, information processing device, and program
JP2011034405A (en) Scenario construction device
JP7258686B2 (en) Information processing system, information processing method, and program
US20200327889A1 (en) Nurse operation assistance terminal, nurse operation assistance system, nurse operation assistance method, and nurse operation assistance program recording medium
US10521555B2 (en) Video-analysis tagging of healthcare services video record
JP6316655B2 (en) Medical information system
JP2023047767A (en) Voice recording management system, voice recording management apparatus, voice recording management method, and program
JP2006031445A (en) Accident, incident report analysis system
US11854691B1 (en) Systems and methods for hands-free user interfaces for hospital management systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150