JP2019016137A - Recording program, recording method and recording apparatus - Google Patents
Recording program, recording method and recording apparatus Download PDFInfo
- Publication number
- JP2019016137A JP2019016137A JP2017132642A JP2017132642A JP2019016137A JP 2019016137 A JP2019016137 A JP 2019016137A JP 2017132642 A JP2017132642 A JP 2017132642A JP 2017132642 A JP2017132642 A JP 2017132642A JP 2019016137 A JP2019016137 A JP 2019016137A
- Authority
- JP
- Japan
- Prior art keywords
- recording
- name
- character string
- voice
- patient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本件は、記録プログラム、記録方法、及び記録装置に関する。 The present invention relates to a recording program, a recording method, and a recording apparatus.
特定の言葉を認識した場合、その言葉の後に発話された内容を検索クエリとして認識する技術が知られている。また、車室内の監視者の音声を認識して、監視対象者の呼称を含む呼びかけから監視対象者を特定し、事前登録されたその監視対象者の特徴に基づき、車室内の撮像映像からその監視対象者を検索してその位置を特定する技術も知られている(例えば、特許文献1参照)。 There is known a technique for recognizing a content uttered after a specific word as a search query when a specific word is recognized. In addition, it recognizes the voice of the supervisor in the passenger compartment, identifies the supervisor from the call including the name of the supervisor, and based on the characteristics of the supervisor registered in advance, A technique for searching for a person to be monitored and specifying its position is also known (see, for example, Patent Document 1).
上述したように、音声認識のトリガとして特定の言葉を利用する技術や、音声から監視対象者を特定する技術が知られている。一方で、医療分野で利用される電子カルテには、看護行為や診療行為といった各種行為の記録の入力を支援する機能が実装されていることがある。看護師や医師といった記録者は、当該機能を利用して上記行為の記録をタブレット端末に入力する場合がある。しかしながら、記録を入力する場合、記録者は患者などの記録対象者を選択してから、その記録対象者に対する記録を入力するため、入力に手間がかかるという問題がある。 As described above, a technique that uses a specific word as a trigger for voice recognition and a technique that specifies a person to be monitored from voice are known. On the other hand, electronic medical records used in the medical field may have a function that supports input of records of various actions such as nursing actions and medical actions. A recorder such as a nurse or a doctor may input a record of the above action into the tablet terminal using the function. However, when inputting a record, since the record person selects a record target person such as a patient and then inputs the record for the record target person, there is a problem that it takes time to input.
そこで、1つの側面では、記録者が記録対象者に行った行為を、従来の手法と比較してより簡便に記録できる記録プログラム、記録方法、及び記録装置を提供することを目的とする。 In view of this, an object of one aspect is to provide a recording program, a recording method, and a recording apparatus capable of more easily recording an action performed by a recording person on a recording target person as compared with a conventional method.
1つの実施態様では、記録プログラムは、記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理をコンピュータに実行させる。 In one embodiment, the recording program acquires the current position of the recording person, acquires the sound of the recording person, and acquires from the storage unit that stores the stay position, the name, and the identifier of the recording target person in association with each other. The name and identifier associated with the stay position corresponding to the current position are acquired, voice recognition is performed on the acquired voice, and the first character string generated based on the voice recognition is acquired. Whether or not the designation is included, and if the designation is included, recording target information on the recording target person is generated based on the voice and included in the first character string. A computer is caused to execute a process of recording the identifier corresponding to the designation and the recording target information in association with each other.
記録者が記録対象者に行った行為を、従来の手法と比較してより簡便に記録することができる。 The action performed by the recording person on the person to be recorded can be more easily recorded as compared with the conventional method.
以下、本件を実施するための形態について図面を参照して説明する。尚、以下に説明する実施形態では、記録者が行う行為の一例として看護師が行う看護行為を説明するが、例えば医師又は歯科医が行う診療行為であってもよい。したがって、看護師が行う看護行為であれば、看護記録が生成され、医師又は歯科医が行う診療行為であれば、診療記録が生成される。なお、看護記録や診療記録は、記録対象情報の一例である。 Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings. In the embodiment described below, a nursing action performed by a nurse is described as an example of an action performed by a recorder. However, for example, a medical practice performed by a doctor or a dentist may be used. Therefore, if it is a nursing action performed by a nurse, a nursing record is generated, and if it is a medical action performed by a doctor or dentist, a medical record is generated. Note that nursing records and medical records are examples of record target information.
図1は記録システムSの一例である。記録システムSは記録装置としての端末装置100とサーバ装置200とを備えている。端末装置100とサーバ装置200とは有線通信及び無線通信により接続されている。例えば、端末装置100は病室R1に設置されたアクセスポイントAP1と無線通信により接続されている。例えば、アクセスポイントAP1と病室R2に設置されたアクセスポイントAP2は有線通信により通信ネットワークNWと接続されている。一方、サーバ装置200は有線通信により通信ネットワークNWと接続されている。したがって、端末装置100とサーバ装置200はアクセスポイントAP1,AP2及び通信ネットワークNWを介して各種のデータを互いに送受信することができる。尚、通信ネットワークNWとしては、例えばLocal Area Network(LAN)などがある。
FIG. 1 shows an example of a recording system S. The recording system S includes a
端末装置100は看護師Nに携帯される携帯端末である。図1では、端末装置100の一例としてスマートデバイス(具体的にはスマートフォン)が示されている。端末装置100には外部マイク(例えばピンマイクなど)10が接続されている。外部マイク10の集音部は看護師Nが装着するマスク20により隠れている。外部マイク10の集音部を看護師Nの口元に配置することで、外部マイク10は看護師Nが発声する音声を容易に取得することができる。言い換えれば、外部マイク10は患者Pが発声する音声の取得を回避することができる。看護師Nは病室R1,R2などを行き来し、ベッド30に横たわる各患者Pに対する看護行為を行いつつ、音声により看護記録を作成する。
The
尚、詳細は後述するが、アクセスポイントAP1,AP2は病室R1,R2を識別する病室識別データ及び病棟H1,H2を識別する病棟識別データを保持している。端末装置100がアクセスポイントAP1又はアクセスポイントAP2から病室識別データ及び病棟識別データを取得することで、看護師Nの現在の位置を表す現在位置を特定することができる。尚、アクセスポイントAP1,AP2に代えて、アクセスポイントAP1,AP2とは無線通信の通信方式が異なるビーコン端末を利用してもよい。
Although details will be described later, the access points AP1 and AP2 hold the room identification data for identifying the rooms R1 and R2 and the ward identification data for identifying the wards H1 and H2. The
サーバ装置200は例えば病棟H2のサーバ室R3などに配置される。サーバ装置200は端末装置100からデータの取得要求を受け付けると、取得要求に応じたデータを端末装置100に向けて送信する。サーバ装置200が送信するデータとしては、例えば患者Pを識別する患者ID及び患者Pの呼称などがある。一方、サーバ装置200は端末装置100からデータの保存要求を受け付けると、保存要求に応じたデータを保存する。サーバ装置200が保存するデータとしては、例えば看護記録をデータ化又は電子化した看護記録データなどがある。
The
次に、図2を参照して、上述した端末装置100のハードウェア構成について説明する。
Next, the hardware configuration of the
図2は端末装置100のハードウェア構成の一例である。図2に示すように、端末装置100は、プロセッサとしてのCentral Processing Unit(CPU)100A、Random Access Memory(RAM)100B、Read Only Memory(ROM)100C、Non-Volatile Memory(NVM)100D及びRadio Frequency(RF)回路100Eを含んでいる。RF回路100Eにはアンテナ100E´が接続されている。RF回路100Eに代えて通信機能を実現するCPUが利用されてもよい。
FIG. 2 is an example of a hardware configuration of the
また、端末装置100は、入力端子100F、カメラ100G、タッチパネル100H、ディスプレイ100I、及び内部マイク100Jを含んでいる。入力端子100Fには、外部マイク10が接続される。CPU100Aから内部マイク100Jまでは、内部バス100Kによって互いに接続されている。少なくともCPU100AとRAM100Bとが協働することによってコンピュータが実現される。尚、CPU100Aに代えてMicro Processing Unit(MPU)をプロセッサとして利用してもよい。
The
上述したRAM100Bには、ROM100CやNVM100Dに記憶されたプログラムがCPU100Aによって格納される。格納されたプログラムをCPU100Aが実行することにより、後述する各種の機能が実現され、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
In the above-described
次に、図3を参照して、上述したサーバ装置200のハードウェア構成について説明する。
Next, the hardware configuration of the
図3はサーバ装置200のハードウェア構成の一例である。図3に示すように、サーバ装置200は、少なくともプロセッサとしてのCPU200A、RAM200B、ROM200C及びネットワークI/F200Dを含んでいる。サーバ装置200は、必要に応じて、Hard Disk Drive(HDD)200E、入力I/F200F、出力I/F200G、入出力I/F200H、ドライブ装置200Iの少なくとも1つを含んでいてもよい。CPU200Aからドライブ装置200Iまでは、内部バス200Jによって互いに接続されている。少なくともCPU200AとRAM200Bとが協働することによってコンピュータが実現される。尚、CPU200Aに代えて上述したMPUをプロセッサとして利用してもよい。
FIG. 3 is an example of a hardware configuration of the
入力I/F200Fには、入力装置710が接続される。入力装置710としては、例えばキーボードやマウスなどがある。出力I/F200Gには、表示装置720が接続される。表示装置720としては、例えば液晶ディスプレイがある。入出力I/F200Hには、半導体メモリ730が接続される。半導体メモリ730としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F200Hは、半導体メモリ730に記憶されたプログラムやデータを読み取る。入力I/F200F及び入出力I/F200Hは、例えばUSBポートを備えている。出力I/F200Gは、例えばディスプレイポートを備えている。
An
ドライブ装置200Iには、可搬型記録媒体740が挿入される。可搬型記録媒体740としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置200Iは、可搬型記録媒体740に記録されたプログラムやデータを読み込む。ネットワークI/F200Dは、例えばLANポートを備えている。ネットワークI/F200Dは上述した通信ネットワークNWと接続される。
A portable recording medium 740 is inserted into the drive device 200I. Examples of the portable recording medium 740 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 200I reads a program and data recorded on the portable recording medium 740. The network I /
上述したRAM200Bには、ROM200CやHDD200Eに記憶されたプログラムがCPU200Aによって格納される。RAM200Bには、可搬型記録媒体740に記録されたプログラムがCPU200Aによって格納される。格納されたプログラムをCPU200Aが実行することにより、後述する各種の機能が実現され、また、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
In the above-described
次に、図4から図7を参照して、上述した端末装置100及びサーバ装置200の機能構成について説明する。
Next, functional configurations of the
図4は端末装置100及びサーバ装置200のブロック図の一例である。図5は患者マスタ記憶部210の一例である。図6は抽出対象記憶部220の一例である。図7はデータ記憶部230の一例である。尚、図4において、端末装置100が備えるハードウェア要素については破線で示している。
FIG. 4 is an example of a block diagram of the
まず、端末装置100について説明する。図4に示すように、端末装置100は制御部110を備えている。制御部110は端末装置100の動作を制御する。制御部110は、現在位置取得部111、患者データ取得部112、及び音声認識部113を備えている。また、制御部110は、データ記録部114、データ送信部115、及び表示制御部116を備えている。尚、制御部110は、例えば上述したCPU100A及びRAM100Bによって実現される。
First, the
現在位置取得部111は、RF回路100Eを通じて、看護師Nの現在位置を取得する。より詳しくは、現在位置取得部111は看護師Nが滞在する病室R1,R2毎に設置されたアクセスポイントAP1,AP2との無線通信を利用して、現在位置を取得する。例えば、看護師Nが病室R1に入室すると、現在位置取得部111はアクセスポイントAP1から病室識別データ「801号室」及び病棟識別データ「西病棟(8階)」を現在位置として取得する。これにより、看護師Nの現在位置を特定することができる。
The current
患者データ取得部112は、RF回路100Eを通じて、サーバ装置200から患者データを取得する。より詳しくは、患者データ取得部112は、現在位置取得部111が取得した現在位置に基づいて、現在位置に応じた滞在位置に在室する患者Pの患者ID及び患者Pの呼称を要求する取得要求をサーバ装置200に送信する。詳細は後述するが、サーバ装置200は、患者Pが在室する滞在位置としての病棟及び病室を、患者ID及び患者Pの呼称と対応付けて記憶している。したがって、患者データ取得部112が現在位置に基づいて、上記取得要求をサーバ装置200に送信すると、患者データ取得部112は現在位置に応じた患者Pの滞在位置と対応付けられた患者ID及び患者Pの呼称を患者データとしてサーバ装置200から取得する。
The patient
音声認識部113は、外部マイク10を通じて、看護師Nの音声を取得する。音声認識部113は音声を取得すると、取得した音声に対して、音声認識を実行する。これにより、音声認識部113は看護師Nの音声に応じたテキストデータ(以下、単にテキストという)を生成する。尚、音声認識部113は看護師Nの音声以外の音(例えば、足音、物音、騒音といった看護師Nの周囲に存在する音)を看護師Nの音声と併せて取得した場合、ノイズキャンセリング処理を利用して、看護師Nの音声以外の音を消去して、看護師Nの音声を取得する。これにより、音声認識部113の音声認識率が向上する。また、音声に応じたテキスト生成することを音声認識というだけでなく、看護師Nの音声を含む様々な音の中から看護師Nの音声を認識することも音声認識に含めてもよい。
The
データ記録部114は音声認識部113によって生成されたテキストに、患者データ取得部112が取得した患者Pの呼称が含まれているか否かを判断する。データ記録部114はテキストに患者Pの呼称が含まれている場合、テキストから患者Pの呼称の後に出現するテキストを抽出し、テキストに含まれている呼称に対応する、患者データ取得部112が取得した患者IDと抽出したテキストとを対応付けて看護記録データに記録する。データ記録部114は看護記録データに患者IDとテキストを記録すると、看護記録データを含む保存要求を生成し、データ送信部115に出力する。データ送信部115は、RF回路100Eを通じて、看護記録データを含む保存要求をサーバ装置200に送信する。
The
表示制御部116はディスプレイ100Iに表示されるGraphical User Interface(GUI)を制御する。例えば、表示制御部116は、データ記録部114が実行する各種の処理の過程で正常な処理を実行できなかった場合、ディスプレイ100Iに正常な処理が実行されなかったことを表すアラームを表示する。尚、データ記録部114に代えて、現在位置取得部111、患者データ取得部112、音声認識部113などであってもよい。また、表示制御部116は看護記録データを表示してもよい。
The
次に、サーバ装置200について説明する。図4に示すように、サーバ装置200は、患者マスタ記憶部210、抽出対象記憶部220、データ記憶部230、通信部240、及びデータ処理部250を備えている。尚、患者マスタ記憶部210、抽出対象記憶部220、及びデータ記憶部230は、例えば上述したHDD200Eによって実現される。通信部240は、例えば上述したネットワークI/F200Dによって実現される。データ処理部250は、例えば上述したCPU200A及びRAM200Bによって実現される。
Next, the
患者マスタ記憶部210は複数の患者Pに関する患者データをそれぞれ記憶する。具体的には、図5に示すように、患者マスタ記憶部210は、病棟(階数)及び病室によって特定される患者Pの滞在位置、患者ID、並びに患者Pの複数の呼称といった複数の構成要素を対応付けて記憶する。図5では患者IDの一例として患者Pの氏名が示されているが、患者Pを識別できれば、患者Pに付与された識別番号などであってもよい。また、患者IDを患者Pの識別番号と氏名の組合せとしてもよい。また、図5では、第1呼称の一例として患者Pの名字と敬称の組合せが示され、第2呼称の一例として患者Pの名前と敬称の組合せが示されているが、第1呼称及び第2呼称はこれらの組合せに限定されない。例えば、動物病院であれば、名前と敬称の組合せから敬称を省略してもよい。尚、患者データは予め患者マスタ記憶部210に登録されて保存されている。
The patient
抽出対象記憶部220は患者Pのバイタルサインを表す種々のキーワードを記憶する。具体的には、図6に示すように、抽出対象記憶部220は、キーワード、記録フィールド、及び変換タイプといった複数の構成要素を対応付けて記憶する。キーワードは端末装置100のデータ記録部114が抽出したテキストの中に出現するバイタルサインを表す言葉を特定する文字列である。図6では、キーワードの一例として、体温、血圧、及び脈拍が示されているが、これらに限定されず、例えば呼吸数などを含めてもよい。記録フィールドは、看護記録データが有する複数の領域(フィールド)を特定する識別子である。詳細は後述するが、体温フィールドは、看護記録データにおける体温フィールドに体温を表す数値データを記録することを表している。変換タイプはデータ記録部114が抽出したテキストに出現するキーワードに対応する数値情報を数値データに変換する識別子である。詳細は後述するが、例えば抽出したテキストに「体温は36度5分」が出現した場合、データ記録部114は変換タイプに基づいてキーワード「体温」に対応する数値情報「36度5分」を数値データ「36.5」に変換する。
The extraction
データ記憶部230は看護記録データを記憶する。具体的には、図7に示すように、データ記憶部230は複数の看護記録データ40を記憶する。特に、データ記憶部230は時系列の看護記録データ40を患者ID毎に記憶する。看護記録データ40は患者IDフィールド41、体温フィールド42、血圧(最高/最低)フィールド43、脈拍フィールド44、及び看護記録フィールド45を含んでいる。例えば、患者IDフィールド41には患者Pの患者IDが記録される。例えば、体温フィールド42には患者Pの体温を表す数値データが記録される。血圧(最高/最低)フィールド43及び脈拍フィールド44は、基本的に、体温フィールド42と同様である。看護記録フィールド45にはデータ記録部114が抽出したテキストが記録される。
The
データ処理部250は端末装置100から送信された各種の要求を、通信部240を通じて受け付けると、種々のデータ処理を実行する。例えば、データ処理部250は、端末装置100から現在位置を含む取得要求を受け付けると、現在位置に応じた患者Pの滞在位置と対応付けられた患者ID及び患者Pの第1呼称及び第2呼称を患者マスタ記憶部210から抽出する。データ処理部250は、患者ID等の抽出と併せて、抽出対象記憶部220からキーワード、記録フィールド、及び変換タイプを抽出する。データ処理部250は患者IDなど及びキーワードなどを抽出すると、抽出した患者IDなどを患者データとしてキーワードなどと共に端末装置100に送信する。一方、例えば、データ処理部250は、端末装置100から看護記録データ40を含む保存要求を受け付けると、保存要求に含まれる看護記録データ40をデータ記憶部230に保存する。
When the
次に、図8から図11を参照して、端末装置100の動作について説明する。
Next, the operation of the
図8は現在位置取得部111及び患者データ取得部112が実行する取得処理の一例を示すフローチャートである。図8に示すように、まず、現在位置取得部111は看護師Nの現在位置を取得する(ステップS101)。上述したように、例えば看護師Nが病室R1に入室すると、現在位置取得部111はアクセスポイントAP1から病室識別データ及び病棟識別データを現在位置として取得する。
FIG. 8 is a flowchart illustrating an example of acquisition processing executed by the current
ステップS101の処理が完了すると、次いで、現在位置取得部111は病室移動があったか否かを判断する(ステップS102)。例えば、看護師Nが病室R1から病室R2に移動すると、現在位置取得部111は病室移動があったと判断し(ステップS102:YES)、ステップS101の処理を実行する。これにより、現在位置取得部111はアクセスポイントAP2から病棟識別データ及び病室識別データを現在位置として取得する。
When the process of step S101 is completed, the current
一方、看護師Nが病室R1から移動しないと、現在位置取得部111は病室移動がなかったと判断し(ステップS102:NO)、患者データ取得部112はサーバ装置200から患者Pの呼称と患者IDを取得する(ステップS103)。より詳しくは、患者データ取得部112は現在位置を含む取得要求を生成し、データ送信部115が取得要求をサーバ装置200に送信する。例えば、看護師Nが病室R1に在室しており、現在位置取得部111が病棟識別データ「西病棟(8階)」及び病室識別データ「801号室」を現在位置として取得すると、患者データ取得部112は現在位置取得部111が取得した現在位置を含む取得要求を生成し、データ送信部115がその取得要求をサーバ装置200に送信する。サーバ装置200が取得要求に応じたデータ処理を実行することにより、患者データ取得部112は現在位置に応じた患者Pの滞在位置と対応付けられた患者Pの呼称と患者IDを取得する。
On the other hand, if the nurse N does not move from the patient room R1, the current
より具体的に説明すると、患者データ取得部112は病棟「西病棟(8階)」及び病室「801号室」の患者ID「〇〇花子」、第1呼称「〇〇さん」及び第2呼称「はなこさん」(図5参照)を患者データとして取得する。同様に、患者データ取得部112は患者ID「佐藤太郎」、第1呼称「さとうさん」及び第2呼称「たろうさん」、並びに患者ID「××祐一」、第1呼称「××くん」及び第2呼称「ゆうくん」をそれぞれ患者データとして取得する。一方で、患者データ取得部112は病室「801号室」と異なる病室「802号室」の患者ID「△△りか」、第1呼称「△△ちゃん」及び第2呼称「りかちゃん」を取得対象から除外する。これにより、看護師Nが看護行為の記録を行う対象の患者Pが限定される。患者データ取得部112は患者データを取得すると、取得した患者データをデータ記録部114に出力する。
More specifically, the patient
図9は音声認識部113が実行する音声認識処理の一例を示すフローチャートである。図10はデータ記録部114が実行する記録処理の一例を示すフローチャートである。図11(a)〜(e)は看護記録データ40を生成するまでの処理を説明するための図である。尚、音声認識部113は音声認識処理を上述した取得処理と並列的に実行してもよい。
FIG. 9 is a flowchart showing an example of a voice recognition process executed by the
まず、図9に示すように、音声認識部113は看護師Nの音声を取得する(ステップS201)。例えば、図11(a)に示すように、看護師Nが病室R1に在室する患者Pのいずれかに対して発話を行うと、音声認識部113は、外部マイク10を通じて、看護師Nの音声を取得する。ステップS201の処理が完了すると、次いで、音声認識部113は無音区間を検出したか否かを判断する(ステップS202)。無音区間は看護師Nが閾値時間以上発話を行わなかった期間である。無音区間には看護師Nの周囲に存在する音が含まれていてもよい。閾値時間は発話終了を検出可能な数秒程度に適宜設定することができる。本実施形態では一例として閾値時間に3秒が設定されている。
First, as shown in FIG. 9, the
ここで、音声認識部113は無音区間を検出するまで(ステップS202:NO)、ステップS201の処理を継続する。例えば、図11(a)に示すように、看護師Nが発話を行うと、発話途中又は発話終了時の息継ぎなどにより1秒程度の間(ま)が発生するが、このような間は看護師Nの発話中であると判断し、発話終了と見なさない。相槌についても同様に発話終了と見なさない。したがって、音声認識部113は看護師Nの一連の音声を取得する。
Here, the
一方、音声認識部113は無音区間を検出すると(ステップS202:YES)、音声認識を実行する(ステップS203)。例えば、図11(a)に示すように、看護師Nが発話を終えて、体温計で患者Pの体温を計測し始めると、体温を計測している間(例えば90秒間)、看護師Nは発話を行わない。このような場合、看護師Nが発話を終えてから閾値時間(例えば3秒)以上経過するため、音声認識部113は無音区間を検出し、音声認識を実行する。これにより、図11(c)に示すように、音声認識部113は看護師Nの音声から音声認識の認識結果としてテキストT1を、発話日時と共に生成する。
On the other hand, when the
ステップS203の処理が完了すると、音声認識部113は生成したテキストを一発話分のテキストとして保持し(ステップS204)、再び、ステップS201の処理から順に後続の処理を実行する。これにより、図11(b)に示すように、患者Pの体温の計測を終えて、看護師Nが発話を再開すると、図11(d)に示すように、音声認識部113は看護師Nの音声から一発話分のテキストT2を、発話日時と共に生成して保持する。
When the process of step S203 is completed, the
次に、図10に示すように、データ記録部114は、音声認識部113から一発話分のテキストを取得し(ステップS301)、呼称が含まれるか否かを判断する(ステップS302)。より詳しくは、データ記録部114は、音声認識部113から一発話分のテキストを発話日時順に取得し、取得したテキストに、ステップS103の処理で取得した第1呼称又は第2呼称のいずれかが含まれるか否かを判断する。例えば、患者データ取得部112が病室「801号室」に在室する患者Pの第1呼称「〇〇さん」、「さとうさん」及び「××くん」、並びに、第2呼称「はなこさん」、「たろうさん」及び「ゆうくん」を取得していた場合に、データ記録部114がテキストT1(図11(c)参照)を取得すると、データ記録部114は第1呼称及び第2呼称のいずれも含まれないと判断する(ステップS302:NO)。この場合、データ記録部114はテキストT1を後続の処理対象から除外し、再びステップS301の処理を実行する。
Next, as shown in FIG. 10, the
尚、仮に、看護師Nが発話の中で病室「802号室」に滞在する患者Pの第2呼称「りかちゃん」を発話し、テキストT1に第2呼称「りかちゃん」が含まれていても、患者データ取得部112が取得した第1呼称及び第2呼称のいずれとも異なる。このため、データ記録部114は、同様に、テキストT1を後続の処理対象から除外し、再びステップS301の処理を実行する。これにより、患者ID「△△りか」の看護記録データ40が誤って生成されることが回避される。
If nurse N utters the second name “Lika-chan” of patient P who stays in hospital room “802” in the utterance and the text T1 contains the second name “Lika-chan”, the patient It is different from both the first name and the second name acquired by the
一方で、データ記録部114がテキストT2(図11(d)参照)を取得すると、データ記録部114は第1呼称「〇〇さん」が含まれると判断する(ステップS302:YES)。この場合、データ記録部114はテキストT2から、呼称後のテキストを抽出する(ステップS303)。すなわち、データ記録部114はテキストT2から呼称「〇〇さん」より後のテキストT2´を抽出する。尚、呼称「〇〇さん」の直後に読点「、」が付与されている場合、データ記録部114はテキストT2から呼称「〇〇さん」及び読点「、」より後のテキストT2´を抽出する。データ記録部114は句点「。」についても読点「、」と同じ処理を実行する。
On the other hand, when the
ステップS303の処理が完了すると、次いで、データ記録部114はテキストT2´にキーワードが含まれるか否かを判断する(ステップS304)。例えば、図11(d)に示すように、テキストT2´にはキーワード「体温」が含まれている。データ記録部114はテキストT2´にキーワードが含まれると判断すると(ステップS304:YES)、キーワードに対応する数値情報を抽出する(ステップS305)。より詳しくは、データ記録部114はキーワードに対応する数値情報を抽出して、数値情報を変換タイプに基づいて数値データに変換する。したがって、データ記録部114はキーワード「体温」に対応する数値情報「36度5分」を抽出し、抽出した数値情報を数値データ「36.5」に変換する。尚、データ記録部114はテキストT2´にキーワードが含まれないと判断すると(ステップS304:NO)、ステップS305の処理をスキップする。
When the process of step S303 is completed, the
ステップS305の処理が完了した場合、又は、ステップS305の処理がスキップされた場合、データ記録部114は患者IDと抽出結果を対応付けて記録する(ステップS306)。より詳しくは、データ記録部114は患者IDと抽出結果としてのテキストT2´を看護記録データ40における患者IDフィールド41及び看護記録フィールド45にそれぞれ記録する。その際、データ記録部114は発話日時に応じた発話日及び発話時間帯も併せて記録してもよい。これにより、図11(e)に示す看護記録データ40において、体温フィールド42に数値データを記録していない看護記録データ40が生成される。ステップS306の処理が完了すると、看護記録データ40の保存要求を送信し(ステップS307)、ステップS301の処理を再び実行する。
When the process of step S305 is completed or when the process of step S305 is skipped, the
尚、患者データ取得部112が複数の患者IDを取得していた場合(図8参照)、データ記録部114は、まず、複数の患者IDの中からテキストT2に含まれる第1呼称又は第2呼称と対応付けられた患者IDを特定する。そして、データ記録部114は、特定した患者IDとテキストT2´を対応付けて看護記録データ40に記録する。また、データ記録部114が数値情報を抽出していた場合、データ記録部114は特定した患者IDとテキストT2´に、抽出した数値情報を変換した数値データも対応付ける。これにより、図11(e)に示すように、体温フィールド42に数値データを記録した看護記録データ40が生成される。ステップS306の処理が完了すると、看護記録データ40の保存要求を送信する。
In addition, when the patient
次に、図12及び図13を参照して、サーバ装置200の動作を説明する。
Next, the operation of the
図12はデータ処理部250が実行する要求処理の一例を示すフローチャートである。図13はデータ記憶部230の他の一例である。まず、データ処理部250は端末装置100から取得要求を受け付けるまで待機する(ステップS401:NO)。データ処理部250は端末装置100から取得要求を受け付けると(ステップS401:YES)、患者の呼称と患者IDを端末装置100に向けて送信する(ステップS402)。より詳しくは、データ処理部250は取得要求が含む現在位置に基づいて患者マスタ記憶部210を検索し、現在位置に応じた患者Pの滞在位置と対応付けられた患者の呼称と患者IDを抽出する。データ処理部250は患者の呼称と患者IDを抽出すると、抽出した患者の呼称と患者IDを患者データとして端末装置100に向けて送信する。
FIG. 12 is a flowchart showing an example of request processing executed by the
ステップS402の処理が完了すると、データ処理部250は端末装置100から保存要求を受け付けるまで待機する(ステップS403:NO)。データ処理部250は端末装置100から保存要求を受け付けると(ステップS403:YES)、看護記録データ40を保存する(ステップS404)。より詳しくは、データ処理部250は保存要求が含む看護記録データ40をデータ記憶部230に保存する。これにより、図13に示すように、データ記憶部230は新たに生成された看護記録データ40を記憶する。
When the process of step S402 is completed, the
以上、本実施形態によれば、端末装置100は現在位置取得部111と患者データ取得部112と音声認識部113とデータ記録部114とを備えている。現在位置取得部111は看護師Nの現在位置を取得する。患者データ取得部112は患者マスタ記憶部210から、現在位置取得部111が取得した現在位置に応じた患者Pの滞在位置と対応付けられた呼称1及び呼称2並びに患者IDを取得する。音声認識部113は看護師Nの音声を取得し、取得した音声に対して、音声認識を実行する。データ記録部114は音声認識に基づいて生成されたテキストT2に、取得した呼称1又は呼称2が含まれているか否かを判断する。データ記録部114は呼称1又は呼称2が含まれている場合、音声に基づき、患者Pに関するテキストT2´又は音声データを記録対象情報として生成し、テキストT2に含まれている呼称に対応する患者IDと記録対象情報とを対応付けて看護記録データ40に記録する。これにより、看護師Nが患者Pに行った看護行為を、従来の手法と比較してより簡便に記録することができる。
As described above, according to the present embodiment, the
例えば、タブレット端末への入力の手間を削減するために、看護師Nと患者Pの会話に対して音声認識を行い、その結果に基づいて看護記録データ40を生成することも考えられる。しかしながら、この場合、どの患者Pの看護記録データ40であるのかを看護師Nに選択させる処理が求められ、依然として入力の手間が生じる。また、特定の言葉を認識した場合に、その後の音声認識の結果から看護記録データ40を生成することも考えられる。しかしながら、やはり同様に、どの患者Pの看護記録データ40であるのかを看護師Nに選択させる処理が求められる。
For example, in order to reduce the trouble of inputting to the tablet terminal, it is conceivable to perform voice recognition on the conversation between the nurse N and the patient P and generate the
そこで、患者Pの呼称を認識することも考えられる。しかしながら、患者Pの呼称としては名字が一般的であったり、看護師Nと患者Pとの雑談の中で患者Pと異なる患者の名字(例えば、その病室に在室していない患者の名字)を看護師Nと患者Pのどちらかが発話したりする場合もある。この場合、看護記録を表すテキストに看護を行っていない対象の患者の患者IDが対応付けられるおそれがあり、看護対象の患者に対する記録が残らない可能性がある。 Therefore, it is possible to recognize the name of the patient P. However, the surname is generally used as the name of the patient P, or the surname of the patient different from the patient P in the chat between the nurse N and the patient P (for example, the surname of the patient who is not in the room) In some cases, either nurse N or patient P speaks. In this case, there is a possibility that the patient ID of the patient who is not performing nursing is associated with the text representing the nursing record, and there is a possibility that no record is left for the patient to be nursing.
ところが、上述したように、本実施形態では、看護師Nが看護対象の患者Pの呼称を発話すれば、その呼称と対応付けられた患者IDと看護師Nが発話した音声のテキストが対応付けられる。このため、看護師Nが患者Pに行った看護行為を、従来の手法と比較してより簡便かつ正確に記録することができる。 However, as described above, in this embodiment, when the nurse N speaks the name of the patient P to be nursing, the patient ID associated with the name is associated with the voice text spoken by the nurse N. It is done. For this reason, the nursing action performed by the nurse N on the patient P can be recorded more easily and accurately than the conventional method.
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述した実施形態では、外部マイク10を利用したが、端末装置100を看護師Nの口元に近づけて内部マイク100Jを利用して、看護師Nの音声を取得してもよい。例えば、端末装置100は看護師Nの音声と現在位置とをサーバ装置200に送信し、端末装置100が実行する各種の処理をサーバ装置200が実行するようにしてもよい。また、上述した実施形態では医療分野を一例として説明したが、町内会の見守り(又は見回り)活動の記録を音声から生成するようにしてもよい。例えば、見守り活動の担当者が各戸を訪問して高齢者などの安否や健康状態の記録を担当者の音声から生成してもよい。この際、現在位置は例えばGlobal Positioning System(GPS)機能を利用して取得し、病棟及び病室に代えて、各戸の住所との対応関係を判断すればよい。
The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible. For example, in the embodiment described above, the
さらに、上述した実施形態では、データ記録部114がテキストT2´の全部を看護記録データ40に記録したが、データ記録部114は、テキストT2´の一部を看護記録データ40に記録してもよい。さらに、上述した実施形態では、データ記録部114がテキストT2´を看護記録データ40に記録したが、データ記録部114は、テキストT2´に代えて、看護師Nの音声に関する音声データの全部又は一部を看護記録データ40に記録してもよい。
Further, in the above-described embodiment, the
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理をコンピュータに実行させる記録プログラム。
(付記2)前記記録対象情報は、前記音声に対する前記音声認識の結果のうち、前記呼称の後に出現する第2文字列の少なくとも一部である、ことを特徴とする付記1に記載の記録プログラム。
(付記3)前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値と前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、処理を含むことを特徴とする付記2に記載の記録プログラム。
(付記4)前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値情報を数値データに変換し、変換した数値データと前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、処理を含むことを特徴とする付記2に記載の記録プログラム。
(付記5)前記音声認識を行う処理は、取得した前記音声から閾値時間以上の無音期間を検出するまで前記音声認識を行わず、取得した前記音声から閾値時間以上の無音期間を検出すると、前記音声認識を行う、ことを特徴とする付記1から4のいずれか1項に記載の記録プログラム。
(付記6)前記現在位置を取得する処理は、前記記録対象者が滞在する空間毎に配置された機器との無線通信を利用して、前記現在位置を取得する、ことを特徴とする付記1から5のいずれか1項に記載の記録プログラム。
(付記7)記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理をコンピュータが実行する記録方法。
(付記8)記録者の現在位置を取得し、前記記録者の音声を取得し、記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、取得した前記音声に対して、音声認識を行い、前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、処理を実行する制御部を備える記録装置。
(付記9)前記記録対象情報は、前記音声に対する前記音声認識の結果のうち、前記呼称の後に出現する第2文字列の少なくとも一部である、ことを特徴とする付記8に記載の記録装置。
(付記10)前記制御部は、前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値と前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、ことを特徴とする付記9に記載の記録装置。
(付記11)前記制御部は、前記第2文字列に、バイタルサインを表す特定の文字列が含まれているか否かを判断し、前記特定の文字列が含まれている場合、該特定の文字列に対応する数値情報を数値データに変換し、変換した数値データと前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、ことを特徴とする付記9に記載の記録装置。
(付記12)前記制御部は、取得した前記音声から閾値時間以上の無音期間を検出するまで前記音声認識を行わず、取得した前記音声から閾値時間以上の無音期間を検出すると、前記音声認識を行う、ことを特徴とする付記8から11のいずれか1項に記載の記録装置。
(付記13)前記制御部は、前記記録対象者が滞在する空間毎に配置された機器との無線通信を利用して、前記現在位置を取得する、ことを特徴とする付記8から12のいずれか1項に記載の記録装置。
In addition, the following additional notes are disclosed regarding the above description.
(Supplementary note 1) Acquires the current position of the recording person, obtains the voice of the recording person, and stores the recorded person's stay position, name, and identifier in association with each other according to the acquired current position. The name and identifier associated with the stay position are acquired, voice recognition is performed on the acquired voice, and the acquired name is included in the first character string generated based on the voice recognition. If the name is included, the recording target information on the recording target person is generated based on the voice, and the name corresponding to the name included in the first character string is generated. A recording program for causing a computer to execute a process of recording an identifier and the recording target information in association with each other.
(Supplementary note 2) The recording program according to supplementary note 1, wherein the recording target information is at least a part of a second character string that appears after the designation among the results of the speech recognition for the speech. .
(Supplementary Note 3) It is determined whether or not the second character string includes a specific character string representing a vital sign. If the specific character string is included, the second character string corresponds to the specific character string. The recording program according to appendix 2, including a process of associating a numerical value with the identifier corresponding to the name and recording the same in an area different from the second character string.
(Supplementary Note 4) It is determined whether or not the second character string includes a specific character string representing a vital sign. If the specific character string is included, the second character string corresponds to the specific character string. Additional processing comprising: converting numerical information into numerical data, associating the converted numerical data with the identifier corresponding to the designation, and recording in a different area from the second character string 2. The recording program according to 2.
(Additional remark 5) The process which performs the said voice recognition does not perform the said voice recognition until it detects the silent period more than threshold time from the acquired said voice, and if the silent period more than threshold time is detected from the acquired said voice, The recording program according to any one of appendices 1 to 4, wherein voice recording is performed.
(Additional remark 6) The process which acquires the said present position acquires the said present position using the radio | wireless communication with the apparatus arrange | positioned for every space where the said recording subject stays, The additional remark 1 characterized by the above-mentioned. 6. The recording program according to any one of items 1 to 5.
(Supplementary note 7) Acquires the current position of the recording person, acquires the voice of the recording person, and stores the recorded person's stay position, name, and identifier in association with each other according to the acquired current position. The name and identifier associated with the stay position are acquired, voice recognition is performed on the acquired voice, and the acquired name is included in the first character string generated based on the voice recognition. If the name is included, the recording target information on the recording target person is generated based on the voice, and the name corresponding to the name included in the first character string is generated. A recording method in which a computer executes a process of recording an identifier and the recording target information in association with each other.
(Supplementary note 8) Acquires the current position of the recording person, acquires the voice of the recording person, and stores the recorded person's stay position, name, and identifier in association with each other according to the acquired current position. The name and identifier associated with the stay position are acquired, voice recognition is performed on the acquired voice, and the acquired name is included in the first character string generated based on the voice recognition. If the name is included, the recording target information on the recording target person is generated based on the voice, and the name corresponding to the name included in the first character string is generated. A recording apparatus comprising a control unit that executes processing for recording an identifier in association with the recording target information.
(Supplementary note 9) The recording apparatus according to supplementary note 8, wherein the recording target information is at least a part of a second character string that appears after the designation among the results of the speech recognition for the speech. .
(Additional remark 10) The said control part judges whether the said 2nd character string contains the specific character string showing vital sign, and when the said specific character string is contained, this specific character string is contained. The recording apparatus according to appendix 9, wherein a numerical value corresponding to a character string and the identifier corresponding to the name are associated with each other and recorded in an area different from the second character string.
(Additional remark 11) The said control part judges whether the specific character string showing vital sign is contained in the said 2nd character string, and when the said specific character string is contained, this specific character string is contained. Numerical value information corresponding to a character string is converted into numerical data, the converted numerical data is associated with the identifier corresponding to the name, and recorded in an area different from the second character string, The recording apparatus according to appendix 9.
(Additional remark 12) The said control part does not perform the said voice recognition until it detects the silence period more than threshold time from the acquired said audio | voice, If the silence period more than threshold time is detected from the acquired said voice, the said voice recognition will be carried out The recording apparatus according to any one of appendices 8 to 11, wherein the recording device is performed.
(Additional remark 13) The said control part acquires the said present position using the radio | wireless communication with the apparatus arrange | positioned for every space where the said recording subject stays. The recording apparatus according to claim 1.
S 記録システム
100 端末装置
110 制御部
111 現在位置取得部
112 患者データ取得部
113 音声認識部
114 データ記録部
115 データ送信部
116 表示制御部
200 サーバ装置
210 患者マスタ記憶部
220 抽出対象記憶部
230 データ記憶部
240 通信部
250 データ処理部
Claims (8)
前記記録者の音声を取得し、
記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、
取得した前記音声に対して、音声認識を行い、
前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、
前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、
前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、
処理をコンピュータに実行させる記録プログラム。 Get the current location of the logger,
Obtain the voice of the recorder,
From the storage unit that stores the stay position, name, and identifier of the person to be recorded in association with each other, obtain the name and identifier associated with the stay position according to the acquired current position,
Perform voice recognition on the acquired voice,
Determining whether or not the acquired name is included in the first character string generated based on the voice recognition;
If the name is included, based on the voice, to generate recording target information about the recording target person,
Recording the identifier corresponding to the name included in the first character string and the recording target information in association with each other;
A recording program that causes a computer to execute processing.
ことを特徴とする請求項1に記載の記録プログラム。 The recording target information is at least a part of a second character string that appears after the designation among the results of the speech recognition for the speech.
The recording program according to claim 1.
前記特定の文字列が含まれている場合、該特定の文字列に対応する数値と前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、
処理を含むことを特徴とする請求項2に記載の記録プログラム。 Determining whether or not the second character string includes a specific character string representing a vital sign;
When the specific character string is included, the numerical value corresponding to the specific character string and the identifier corresponding to the name are associated with each other, and recorded in an area different from the second character string,
The recording program according to claim 2, further comprising a process.
前記特定の文字列が含まれている場合、該特定の文字列に対応する数値情報を数値データに変換し、変換した数値データと前記呼称に対応する前記識別子とを対応付けて、前記第2文字列とは別の領域に記録する、
処理を含むことを特徴とする請求項2に記載の記録プログラム。 Determining whether or not the second character string includes a specific character string representing a vital sign;
When the specific character string is included, numerical information corresponding to the specific character string is converted into numerical data, the converted numerical data is associated with the identifier corresponding to the designation, and the second Record in a separate area from the string,
The recording program according to claim 2, further comprising a process.
ことを特徴とする請求項1から4のいずれか1項に記載の記録プログラム。 The process of performing the speech recognition does not perform the speech recognition until a silence period longer than a threshold time is detected from the acquired voice, and performs the voice recognition when a silence period longer than the threshold time is detected from the acquired voice. ,
The recording program according to any one of claims 1 to 4, wherein:
ことを特徴とする請求項1から5のいずれか1項に記載の記録プログラム。 The process of acquiring the current position is to acquire the current position using wireless communication with a device arranged in each space where the recording target person stays.
The recording program according to any one of claims 1 to 5, wherein:
前記記録者の音声を取得し、
記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、
取得した前記音声に対して、音声認識を行い、
前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、
前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、
前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、
処理をコンピュータが実行する記録方法。 Get the current location of the logger,
Obtain the voice of the recorder,
From the storage unit that stores the stay position, name, and identifier of the person to be recorded in association with each other, obtain the name and identifier associated with the stay position according to the acquired current position,
Perform voice recognition on the acquired voice,
Determining whether or not the acquired name is included in the first character string generated based on the voice recognition;
If the name is included, based on the voice, to generate recording target information about the recording target person,
Recording the identifier corresponding to the name included in the first character string and the recording target information in association with each other;
A recording method in which processing is executed by a computer.
前記記録者の音声を取得し、
記録対象者の滞在位置、呼称、及び識別子を対応付けて記憶する記憶部から、取得した前記現在位置に応じた滞在位置と対応付けられた呼称及び識別子を取得し、
取得した前記音声に対して、音声認識を行い、
前記音声認識に基づいて生成された第1文字列に、取得した前記呼称が含まれているか否かを判断し、
前記呼称が含まれている場合、前記音声に基づき、前記記録対象者に関する記録対象情報を生成し、
前記第1文字列に含まれている前記呼称に対応する前記識別子と前記記録対象情報とを対応付けて記録する、
処理を実行する制御部を備える記録装置。 Get the current location of the logger,
Obtain the voice of the recorder,
From the storage unit that stores the stay position, name, and identifier of the person to be recorded in association with each other, obtain the name and identifier associated with the stay position according to the acquired current position,
Perform voice recognition on the acquired voice,
Determining whether or not the acquired name is included in the first character string generated based on the voice recognition;
If the name is included, based on the voice, to generate recording target information about the recording target person,
Recording the identifier corresponding to the name included in the first character string and the recording target information in association with each other;
A recording apparatus including a control unit that executes processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017132642A JP6819489B2 (en) | 2017-07-06 | 2017-07-06 | Recording program, recording method, and recording device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017132642A JP6819489B2 (en) | 2017-07-06 | 2017-07-06 | Recording program, recording method, and recording device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019016137A true JP2019016137A (en) | 2019-01-31 |
JP6819489B2 JP6819489B2 (en) | 2021-01-27 |
Family
ID=65358612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017132642A Active JP6819489B2 (en) | 2017-07-06 | 2017-07-06 | Recording program, recording method, and recording device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6819489B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140176A (en) * | 2019-03-01 | 2020-09-03 | 株式会社ネイン | Information processing system, information processing device, information processing method and computer program |
JP2021052821A (en) * | 2019-09-26 | 2021-04-08 | 大和ハウス工業株式会社 | Care system |
JP6937484B1 (en) * | 2021-02-10 | 2021-09-22 | 株式会社エクサウィザーズ | Business support methods, systems, and programs |
JP6995273B1 (en) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | Business support methods, systems and programs |
JP6995275B1 (en) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | Business support methods, systems and programs |
JP7402505B2 (en) | 2020-01-16 | 2023-12-21 | 株式会社ケアコム | Record management system and input terminal |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059251A (en) * | 2010-08-11 | 2012-03-22 | Toshiba Corp | Report creation support system |
JP2013054647A (en) * | 2011-09-06 | 2013-03-21 | Toshiba Tec Corp | Medical support system and server device |
WO2015125810A1 (en) * | 2014-02-19 | 2015-08-27 | 株式会社 東芝 | Information processing device and information processing method |
JP2016206959A (en) * | 2015-04-23 | 2016-12-08 | 株式会社ナカヨ | Nursing support device using conversation voice |
WO2017010506A1 (en) * | 2015-07-13 | 2017-01-19 | 帝人株式会社 | Information processing apparatus, information processing method, and computer program |
-
2017
- 2017-07-06 JP JP2017132642A patent/JP6819489B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059251A (en) * | 2010-08-11 | 2012-03-22 | Toshiba Corp | Report creation support system |
JP2013054647A (en) * | 2011-09-06 | 2013-03-21 | Toshiba Tec Corp | Medical support system and server device |
WO2015125810A1 (en) * | 2014-02-19 | 2015-08-27 | 株式会社 東芝 | Information processing device and information processing method |
JP2016206959A (en) * | 2015-04-23 | 2016-12-08 | 株式会社ナカヨ | Nursing support device using conversation voice |
WO2017010506A1 (en) * | 2015-07-13 | 2017-01-19 | 帝人株式会社 | Information processing apparatus, information processing method, and computer program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140176A (en) * | 2019-03-01 | 2020-09-03 | 株式会社ネイン | Information processing system, information processing device, information processing method and computer program |
JP2021052821A (en) * | 2019-09-26 | 2021-04-08 | 大和ハウス工業株式会社 | Care system |
JP7336938B2 (en) | 2019-09-26 | 2023-09-01 | 大和ハウス工業株式会社 | care system |
JP7402505B2 (en) | 2020-01-16 | 2023-12-21 | 株式会社ケアコム | Record management system and input terminal |
JP6937484B1 (en) * | 2021-02-10 | 2021-09-22 | 株式会社エクサウィザーズ | Business support methods, systems, and programs |
JP6995273B1 (en) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | Business support methods, systems and programs |
JP6995275B1 (en) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | Business support methods, systems and programs |
JP2022122727A (en) * | 2021-02-10 | 2022-08-23 | 株式会社エクサウィザーズ | Business support method and system, and program |
JP2022122726A (en) * | 2021-02-10 | 2022-08-23 | 株式会社エクサウィザーズ | Business support method and system, and program |
JP2022122809A (en) * | 2021-02-10 | 2022-08-23 | 株式会社エクサウィザーズ | Business support method and system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6819489B2 (en) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6819489B2 (en) | Recording program, recording method, and recording device | |
US11238871B2 (en) | Electronic device and control method thereof | |
EP3268881B1 (en) | Method and wearable device for obtaining audio data for diagnosis | |
US20090326937A1 (en) | Using personalized health information to improve speech recognition | |
US11031006B2 (en) | Information processing apparatus, information processing method, and program | |
EP3866160A1 (en) | Electronic device and control method thereof | |
JP2019527864A (en) | Virtual health assistant to promote a safe and independent life | |
CN107910073A (en) | A kind of emergency treatment previewing triage method and device | |
US20100225450A1 (en) | Delivering media as compensation for cognitive deficits using labeled objects in surroundings | |
CN109427331A (en) | Audio recognition method and device | |
US10152972B1 (en) | Conversational agent | |
US20080147439A1 (en) | User recognition/identification via speech for a personal health system | |
JP2008250664A (en) | System for managing nursing necessity degree | |
JP2019175052A (en) | Caring behavior estimation system | |
JP2021064284A (en) | Cognitive function evaluation system, cognitive function evaluation method, and program | |
CN109427332B (en) | Electronic device performing operation using voice command and method of operating the same | |
JP2023113525A (en) | Information processing method, information processing device, and program | |
JP2011034405A (en) | Scenario construction device | |
JP7258686B2 (en) | Information processing system, information processing method, and program | |
US20200327889A1 (en) | Nurse operation assistance terminal, nurse operation assistance system, nurse operation assistance method, and nurse operation assistance program recording medium | |
US10521555B2 (en) | Video-analysis tagging of healthcare services video record | |
JP6316655B2 (en) | Medical information system | |
JP2023047767A (en) | Voice recording management system, voice recording management apparatus, voice recording management method, and program | |
JP2006031445A (en) | Accident, incident report analysis system | |
US11854691B1 (en) | Systems and methods for hands-free user interfaces for hospital management systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6819489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |