JP5426706B2 - Audio recording selection device, audio recording selection method, and audio recording selection program - Google Patents

Audio recording selection device, audio recording selection method, and audio recording selection program Download PDF

Info

Publication number
JP5426706B2
JP5426706B2 JP2012038955A JP2012038955A JP5426706B2 JP 5426706 B2 JP5426706 B2 JP 5426706B2 JP 2012038955 A JP2012038955 A JP 2012038955A JP 2012038955 A JP2012038955 A JP 2012038955A JP 5426706 B2 JP5426706 B2 JP 5426706B2
Authority
JP
Japan
Prior art keywords
unit
voice
work
character string
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012038955A
Other languages
Japanese (ja)
Other versions
JP2013174718A (en
Inventor
久雄 瀬戸口
一成 大内
佐和 福家
健太 長
知子 村上
健太郎 鳥居
直志 内平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012038955A priority Critical patent/JP5426706B2/en
Publication of JP2013174718A publication Critical patent/JP2013174718A/en
Application granted granted Critical
Publication of JP5426706B2 publication Critical patent/JP5426706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、音声記録選択装置、音声記録選択方法及び音声記録選択プログラムに関する。   Embodiments described herein relate generally to an audio recording selection device, an audio recording selection method, and an audio recording selection program.

従来、業務上の情報などを音声で記録することが知られている。音声を記録した利用者は、音声を再生することによって業務上の情報などを遡って確認することができる。   Conventionally, it is known to record business information by voice. The user who recorded the sound can check the business information and the like retroactively by reproducing the sound.

特開2010−191802号公報JP 2010-191802 A 特許第4693494号公報Japanese Patent No. 4693494

Ling Bao and Stephen S.Intille、「Activity Recognition from User-Annotated Acceleration Data」、(米国)、Massachusetts Institute of TechnologyLing Bao and Stephen S. Intille, "Activity Recognition from User-Annotated Acceleration Data" (USA), Massachusetts Institute of Technology

しかしながら、業務記録の基となる情報をメモに代えて業務中の音声で記録し、記録した音声から業務記録を作成する場合などには、音声を記録していた業務時間(記録時間)と同等の時間をかけて音声を再生する必要があった。   However, when the information that is the basis of the business record is recorded with the voice during work instead of the memo and the business record is created from the recorded voice, it is equivalent to the work time (recording time) where the voice was recorded. It was necessary to play the voice over the time.

実施形態の音声記録選択装置は、音声受入部と、音声認識部と、作業認識部と、記憶部と、重要度判定部と、出力部と、を有する。音声受入部は、利用者からの音声を受入れる。音声認識部は、音声を認識して文字列に変換する。作業認識部は、開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識する。記憶部は、特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、特定の作業における文字列及び属性の重要度と、を特定の作業に対応付けた対応辞書を記憶する。重要度判定部は、作業情報及び対応辞書に基づいて、特定の作業の開示時刻から終了時刻までの期間に受入れられた音声から変換された文字列の重要度を判定する。出力部は、開示時刻から終了時刻までの期間に受入れられた音声から変換された文字列を、重要度に応じて区別して出力する。 The voice recording selection apparatus according to the embodiment includes a voice receiving unit, a voice recognition unit, a work recognition unit, a storage unit, an importance level determination unit, and an output unit. The voice receiving unit receives voice from the user . The voice recognition unit recognizes the voice and converts it into a character string. The work recognition unit recognizes work information indicating a specific work for which a start time and an end time are determined. The storage unit stores a correspondence dictionary in which at least one of a character string and an attribute of a character string important in a specific work and an importance level of the character string and the attribute in the specific work are associated with the specific work. The importance level determination unit determines the importance level of the character string converted from the speech received during the period from the disclosure time of the specific task to the end time based on the task information and the correspondence dictionary. The output unit distinguishes and outputs the character string converted from the speech accepted in the period from the disclosure time to the end time according to the importance.

実施形態にかかる音声記録選択装置のハードウェア構成図。The hardware block diagram of the audio | voice recording selection apparatus concerning embodiment. 実施形態にかかる音声記録選択装置の機能ブロック図。The functional block diagram of the audio | voice recording selection apparatus concerning embodiment. 音声記録部が行う処理例を示すグラフ。The graph which shows the process example which an audio | voice recording part performs. 看護師の行動の区分を例示する図表。The chart which illustrates the division of a nurse's action. 対応モデルの構成例を示す図表。The chart which shows the example of a structure of a corresponding model. 対応辞書の構成例を示す図表。The figure which shows the structural example of a corresponding dictionary. 重要度判定部が判定した結果を表示部が表示した場合の第1の表示例。The 1st example of a display when a display part displays the result determined by the importance determination part. 重要度判定部が判定した結果を表示部が表示した場合の第2の表示例。The 2nd display example when a display part displays the result determined by the importance determination part. 実施形態にかかる音声記録選択装置の動作のフローチャート。The flowchart of operation | movement of the audio | voice recording selection apparatus concerning embodiment.

以下に添付図面を参照して、音声記録選択装置の実施の形態を詳細に説明する。図1は、実施形態にかかる音声記録選択装置1の構成を例示するハードウェア構成図である。図1に示すように、音声記録選択装置1は、例えば操作部20、マイク21、検知部22、スピーカ23、通信部24、記憶部25及び制御部26を有するコンピュータとしての機能を備えた携帯端末装置である。例えば、音声記録選択装置1は、スマートフォンなどであってもよい。   Embodiments of an audio recording selection apparatus will be described in detail below with reference to the accompanying drawings. FIG. 1 is a hardware configuration diagram illustrating the configuration of an audio recording selection device 1 according to the embodiment. As shown in FIG. 1, the audio recording / selection device 1 has a computer function including, for example, an operation unit 20, a microphone 21, a detection unit 22, a speaker 23, a communication unit 24, a storage unit 25, and a control unit 26. It is a terminal device. For example, the voice recording selection device 1 may be a smartphone or the like.

音声記録選択装置1は、例えば看護業務に従事する看護師などの利用者の腰などに装着され、利用者の行動時の音声を時刻とともに記録し、利用者の行動に応じて変化する情報などを検知して時刻とともに記憶する。また、音声記録選択装置1は、利用者の行動に応じて変化する情報の検知結果を用いて、利用者が行った作業などの行動を認識(推定)する。なお、実施の形態の音声記録選択装置1は、看護業務を行う看護師が利用者となる場合を例に説明するが、これに限られることなく、例えば1日程度のある程度まとまった時間にわたる業務を終えた後に、1日の業務記録を作成する他の業務を行う者が利用者であってもよい。   The voice recording selection device 1 is worn on the waist of a user such as a nurse engaged in nursing work, records the voice of the user's action along with the time, information that changes according to the user's action, etc. Is detected and stored together with the time. Moreover, the voice recording selection apparatus 1 recognizes (estimates) an action such as a work performed by the user using a detection result of information that changes according to the action of the user. The voice record selection apparatus 1 according to the embodiment will be described by taking an example in which a nurse who performs nursing work is a user. However, the present invention is not limited to this. For example, a work over a certain amount of time of about one day is performed. After completing the above, a person who performs another job for creating a daily job record may be a user.

次に、音声記録選択装置1を構成する各部について詳述する。操作部20は、利用者の操作入力を受け入れる入力部200と、音声記録選択装置1の動作結果などを表示する表示部202とを有する。操作部20は、タッチパネルなどにより、入力部200と表示部202とが一体化されていてもよい。   Next, each part which comprises the audio | voice recording selection apparatus 1 is explained in full detail. The operation unit 20 includes an input unit 200 that accepts a user's operation input, and a display unit 202 that displays an operation result of the voice recording selection device 1 and the like. In the operation unit 20, the input unit 200 and the display unit 202 may be integrated by a touch panel or the like.

マイク21は、例えば音声記録選択装置1の機能(又は電源)がオンにされると、音声等を受入れる。なお、マイク21は、受入れた音声をデジタルデータに変換する機能なども有しているものとする。また、マイク21は、指向性の強いマイクで構成されてもよいし、環境音の影響を低減させるために音声記録選択装置1の外部に設けられ、利用者の口元などに配置されるように構成されてもよい。   For example, when the function (or power supply) of the voice recording selection device 1 is turned on, the microphone 21 receives voice and the like. Note that the microphone 21 also has a function of converting received sound into digital data. In addition, the microphone 21 may be configured with a highly directional microphone, and is provided outside the audio recording selection device 1 to reduce the influence of environmental sounds, and is arranged at the user's mouth or the like. It may be configured.

検知部22は、例えば加速度センサ220及び測位センサ222などを含み、利用者の行動に応じて変化する情報を検知する。加速度センサ220は、例えばMEMS(Micro Electro Mechanical System)により加速度センサの機能を実現されたものであってもよい。加速度センサ220は、利用者の動きに応じて変化する加速度を検出することにより、対象者の動き(加速度)を検知する。例えば、加速度センサ220は、音声記録選択装置1の機能(又は電源)がオンにされると、加速度を連続的に検知する。   The detection unit 22 includes, for example, an acceleration sensor 220, a positioning sensor 222, and the like, and detects information that changes according to the user's behavior. The acceleration sensor 220 may be a sensor that realizes the function of the acceleration sensor by, for example, MEMS (Micro Electro Mechanical System). The acceleration sensor 220 detects the movement (acceleration) of the target person by detecting the acceleration that changes according to the movement of the user. For example, the acceleration sensor 220 continuously detects acceleration when the function (or power supply) of the voice recording selection device 1 is turned on.

測位センサ222は、例えばGPS(Global Positioning System;全地球測位システム)機能により利用者の位置を検知する。ただし、測位センサ222の機能は、後述するWi−Fi(登録商標)のアクセスポイント又はBluetooth(登録商標)機器などが発信する機器識別情報を含んだビーコン情報を利用して代替えされてもよい。また、測位センサ222の機能は、屋内に設置された機器からGPSの測位情報に相当する信号を発することにより測位を可能にするIMES(Indoor MEssaging System)を利用して構成されてもよい。また、測位センサ222の機能は、携帯電話の通信網を用いて基地局の位置情報を利用することにより実現されてもよい。   The positioning sensor 222 detects the position of the user using, for example, a GPS (Global Positioning System) function. However, the function of the positioning sensor 222 may be replaced by using beacon information including device identification information transmitted from a Wi-Fi (registered trademark) access point or a Bluetooth (registered trademark) device described later. Further, the function of the positioning sensor 222 may be configured using an IMES (Indoor MEssaging System) that enables positioning by issuing a signal corresponding to GPS positioning information from a device installed indoors. Further, the function of the positioning sensor 222 may be realized by using the position information of the base station using a mobile phone communication network.

また、検知部22は、利用者の行動に応じて変化する利用者の脈拍を検知する脈拍検知部を備えていてもよい。さらに、検知部22は、利用者の行動に影響を与える環境温度を検知する温度検知部を備えていてもよい。つまり、検知部22は、利用者の行動に応じて変化する他の情報、及び利用者の行動に影響を与える他の情報をより多く検知し、利用者の行動(作業など)の認識の精度を向上可能にするように構成されてもよい。なお、検知部22は、機能の全て又は一部が音声記録選択装置1の外部に設けられ、検知結果を制御部26に対して送信するように構成されてもよい。   Moreover, the detection part 22 may be provided with the pulse detection part which detects the pulse of the user which changes according to a user's action. Furthermore, the detection part 22 may be provided with the temperature detection part which detects the environmental temperature which affects a user's action. That is, the detection unit 22 detects more information that changes according to the user's behavior and other information that affects the user's behavior, and the accuracy of recognition of the user's behavior (work, etc.). May be configured to be improved. The detection unit 22 may be configured such that all or part of the functions are provided outside the audio recording selection device 1 and the detection result is transmitted to the control unit 26.

スピーカ23は、入力部200を介して入力される利用者の操作などに応じて、音声などを出力する。なお、スピーカ23は、音声を出力するために必要なデータ変換の機能なども有しているものとする。   The speaker 23 outputs a sound or the like in accordance with a user operation input via the input unit 200. It is assumed that the speaker 23 also has a data conversion function necessary for outputting sound.

通信部24は、外部との通信を行う汎用のインターフェイスであり、例えば有線通信、長距離無線通信及び近接無線通信のいずれに対しても接続可能に構成されている。具体的には、通信部24は、Wi−Fi(登録商標)により相互接続性が保証されている複数のアクセスポイントを有する無線LAN(Local Area Network)に接続可能にされている。また、通信部24は、携帯電話網、Bluetooth(登録商標)、RFID(Radio Frequency IDentification)、USB(Universal Serial Bus)及び有線LANなどを利用して通信を行うように構成されている。   The communication unit 24 is a general-purpose interface that performs communication with the outside, and is configured to be connectable to, for example, wired communication, long-distance wireless communication, and proximity wireless communication. Specifically, the communication unit 24 is connectable to a wireless local area network (LAN) having a plurality of access points whose mutual connectivity is guaranteed by Wi-Fi (registered trademark). The communication unit 24 is configured to perform communication using a mobile phone network, Bluetooth (registered trademark), RFID (Radio Frequency IDentification), USB (Universal Serial Bus), a wired LAN, and the like.

記憶部25は、図示しないROM(Read Only Memory)、RAM(Random Access Memory)及びフラッシュメモリ(Flash memory)などを有する。そして、記憶部25は、音声記録選択装置1が実行するプログラムや、音声記録選択装置1がプログラムを実行する場合に使用するデータ(後述する対応モデル34及び対応辞書36)などを記憶する。また、記憶部25は、マイク21が受入れた音声、加速度センサ220が検出した加速度のデータ、測位センサ222が検出した位置情報(又はアクセスポイント情報等)などもそれぞれ時刻を示す情報(時刻データ)とともに記憶する。また、音声記録選択装置1には、記憶部25との間でプログラム及びデータを送受可能にされたメモリカードなどの記憶媒体250が着脱自在に設けられている。   The storage unit 25 includes a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory (Flash memory), and the like (not shown). And the memory | storage part 25 memorize | stores the data (corresponding model 34 and corresponding | compatible dictionary 36 mentioned later) etc. which are used when the audio | voice recording selection apparatus 1 executes a program, and the audio | voice recording selection apparatus 1 execute a program. The storage unit 25 also includes information (time data) indicating the time, such as voice received by the microphone 21, acceleration data detected by the acceleration sensor 220, position information (or access point information) detected by the positioning sensor 222, and the like. Remember with. Further, the audio recording selection device 1 is provided with a storage medium 250 such as a memory card that can exchange programs and data with the storage unit 25 in a detachable manner.

制御部26は、例えばCPU260を含み、音声記録選択装置1を構成する各部を制御する。   The control unit 26 includes, for example, a CPU 260 and controls each unit constituting the audio recording selection device 1.

次に、音声記録選択装置1が有する機能について説明する。図2は、実施形態にかかる音声記録選択装置1が有する機能の概要を例示する機能ブロック図である。図2に示すように、音声記録選択装置1は、音声受入部30、音声記録部31、音声認識部32、情報検知部33、対応モデル34、作業認識部35、対応辞書36、重要度判定部37及び出力部38を有する。   Next, functions of the audio recording selection device 1 will be described. FIG. 2 is a functional block diagram illustrating an overview of the functions of the audio recording selection device 1 according to the embodiment. As shown in FIG. 2, the voice recording selection apparatus 1 includes a voice receiving unit 30, a voice recording unit 31, a voice recognition unit 32, an information detection unit 33, a correspondence model 34, a work recognition unit 35, a correspondence dictionary 36, and an importance determination. Part 37 and output part 38.

音声受入部30は、マイク21(図1)などにより構成され、音声記録選択装置1の機能(又は電源)がオンにされると、音声を受入れて音声記録部31及び音声認識部32に対して出力する。   The voice receiving unit 30 includes a microphone 21 (FIG. 1) and the like. When the function (or power supply) of the voice recording selection device 1 is turned on, the voice receiving unit 30 receives the voice and sends it to the voice recording unit 31 and the voice recognition unit 32. Output.

音声記録部31は、制御部26及び記憶部25などにより構成され、音声受入部30から受入れた音声を時刻とともに記録(記憶)する。図3は、音声記録部31が行う処理例を示すグラフである。図3に示すように、音声記録部31は、例えば16ビットの整数値で表現されるPCM(Pulse Code Modulation;パルス符号変調)データの音声データを音声受入部30から受入れる。音声記録部31は、音声受入部30から受入れた音声データの全て、又は有用な音声データだけを記憶する。   The voice recording unit 31 includes the control unit 26 and the storage unit 25, and records (stores) the voice received from the voice receiving unit 30 together with the time. FIG. 3 is a graph showing an example of processing performed by the audio recording unit 31. As shown in FIG. 3, the audio recording unit 31 receives audio data of PCM (Pulse Code Modulation) data expressed by, for example, a 16-bit integer value from the audio receiving unit 30. The voice recording unit 31 stores all of the voice data received from the voice receiving unit 30 or only useful voice data.

本実施形態においては、音声記録部31は、図3に示すように、受入れる音声データ(音声波形)の大きさに対して閾値を設け、音声データの大きさが閾値未満である場合は環境音などの有用でないデータ又は無音であるとして、利用者が音声を発していないとみなす。つまり、音声記録部31は、大きさが閾値以上である音声データのみを利用者の音声データとする。   In the present embodiment, as shown in FIG. 3, the sound recording unit 31 provides a threshold for the size of received sound data (speech waveform), and if the size of the sound data is less than the threshold, the environmental sound For example, it is considered that the user does not utter a voice because it is not useful data or silence. That is, the voice recording unit 31 sets only voice data whose size is equal to or greater than the threshold as user voice data.

このように、音声記録部31は、音声受入部30から受入れた音声データを無音期間と有用な連続音声期間とに区別し、有用な連続音声期間ごとに分割された音声データを時刻データとともに記録する。つまり、音声記録部31が記録する音声データには、連続音声期間の開始時刻と終了時刻も含まれる。なお、音声期間の検出方法は、短時間パワーを用いて、利用者の音声データを検出してもよく、限定されない。   As described above, the audio recording unit 31 distinguishes the audio data received from the audio receiving unit 30 into the silent period and the useful continuous audio period, and records the audio data divided for each useful continuous audio period together with the time data. To do. That is, the audio data recorded by the audio recording unit 31 includes the start time and end time of the continuous audio period. The method for detecting the voice period is not limited, and the voice data of the user may be detected using short-time power.

音声認識部32は、制御部26及び記憶部25などにより構成され、音声受入部30から受入れた音声データを認識してテキスト(文字列)に変換し、音声が発せられた時刻を示す情報を対応付けた文字列を重要度判定部37に対して出力する。音声認識部32は、例えばLVCSR(Large-Vocabulary Continuous Speech Recognition;大語彙連続音声認識)エンジンを含む。また、音声認識部32は、利用者の業務に特化した単語辞書、音響モデル及び言語モデルを有していてもよい。   The voice recognition unit 32 includes a control unit 26, a storage unit 25, and the like. The voice recognition unit 32 recognizes voice data received from the voice reception unit 30, converts the voice data into text (character string), and indicates information indicating the time when the voice is emitted. The associated character string is output to the importance determination unit 37. The speech recognition unit 32 includes, for example, an LVCSR (Large-Vocabulary Continuous Speech Recognition) engine. The voice recognition unit 32 may have a word dictionary, an acoustic model, and a language model specialized for the user's work.

情報検知部33は、例えば加速度センサ220を含む加速度検知部330、及び測位センサ222を含む位置検知部332を有し、利用者の加速度及び位置を検知して、作業認識部35に対して出力する。また、情報検知部33は、利用者の脈拍を検知する脈拍検知部334、及び利用者が位置する環境の温度を検知する温度検知部336など他の情報も検知して、作業認識部35に対して出力するように構成されてもよい。利用者の脈拍は、利用者が急いで作業を行った場合に変化することが考えられるため、利用者の作業を認識する場合に利用可能である。また、利用者が看護師である場合、看護師が位置する環境の温度は、患者の健康状態の変化に応じて生じる看護師の作業を認識する場合などに利用可能である。   The information detection unit 33 includes, for example, an acceleration detection unit 330 including the acceleration sensor 220 and a position detection unit 332 including the positioning sensor 222, detects the user's acceleration and position, and outputs them to the work recognition unit 35. To do. The information detection unit 33 also detects other information such as a pulse detection unit 334 that detects the pulse of the user and a temperature detection unit 336 that detects the temperature of the environment in which the user is located, and sends the detected information to the work recognition unit 35. It may be configured to output in response to this. The user's pulse can be changed when the user rushes to work, and thus can be used when recognizing the user's work. Further, when the user is a nurse, the temperature of the environment in which the nurse is located can be used when recognizing the work of the nurse that occurs in response to a change in the health condition of the patient.

対応モデル34は、利用者が行った特定の作業を作業認識部35が情報検知部33の検知結果を用いて認識するために使用するモデルであり、例えば記憶部25に記憶されている。以下、作業認識部35が加速度検知部330及び位置検知部332の検知結果を用いて利用者が行った特定の作業を認識する場合を例に説明する。   The correspondence model 34 is a model used by the work recognition unit 35 to recognize a specific work performed by the user using the detection result of the information detection unit 33, and is stored in the storage unit 25, for example. Hereinafter, a case where the work recognition unit 35 recognizes a specific work performed by the user using the detection results of the acceleration detection unit 330 and the position detection unit 332 will be described as an example.

まず、利用者の行動の区分について説明する。図4は、看護師の行動の区分を例示する図表である。図4に示すように、看護師の行動は、例えば業務、作業及び動作に区分される。看護師の行動には、例えば患者の回診業務及び看護業務などの複数の業務が定められているものとする。また、作業は、業務中に発生する小さな仕事を指すものとする。また、動作は、作業中に発生する「姿勢変更」、「手を動かす」及び「手を止める」などの利用者の具体的な動きを指すものとする。つまり、図4に例示するように、利用者の行動は、業務(「患者の回診」)が複数の作業(「体の向き変更」、「衣服をはがす」など)により構成され、作業が複数の動作(「姿勢変更」、「手を動かす」、「解く」など)により構成されるという階層構造で表されるものとする。作業は複数の動作から認識され、業務は複数の作業から認識される。   First, user behavior categories will be described. FIG. 4 is a chart illustrating an example of nurse behavior classification. As shown in FIG. 4, the nurse's actions are classified into, for example, work, work, and action. It is assumed that the nurse's behavior includes a plurality of tasks such as a patient round-up task and a nursing task. Further, the work refers to a small work that occurs during work. In addition, the movement indicates a specific movement of the user such as “posture change”, “moving hand”, and “stopping hand” that occurs during the work. In other words, as illustrated in FIG. 4, the user's behavior is composed of a plurality of operations (“change of body orientation”, “peeling clothes”, etc.) for work (“patient round-up”), and a plurality of operations. It is assumed that it is represented by a hierarchical structure composed of the following operations (“posture change”, “move the hand”, “solve”, etc.). Work is recognized from a plurality of operations, and work is recognized from a plurality of operations.

看護業務においては、患者の診察を行う場合に、看護師は両手を使って患者の体を起こすという作業が発生することがある。この場合、看護師は、看護業務の業務記録を作成するために必要となる情報を紙に記載することが困難である。具体的には、看護師は、両手を使っている場合には、患者の傷の大きさや状態などの情報を紙に記載するために、筆記具を用いることは困難である。そこで、看護師は、情報を紙に記載することに代えて、音声記録選択装置1に音声を記録する。   In nursing work, when a patient is examined, the nurse sometimes raises the patient's body using both hands. In this case, it is difficult for the nurse to write on the paper the information necessary for creating a work record of the nursing work. Specifically, when using both hands, it is difficult for a nurse to use a writing instrument to write information such as the size and condition of a patient's wound on paper. Therefore, the nurse records voice in the voice recording selection device 1 instead of writing the information on paper.

図5は、対応モデル34の構成例を示す図表である。図5に示すように、対応モデル34は、例えば動作のパターン50、位置52、時間54の情報が、作業名56の情報に対応付けられている。例えば、対応モデル34は、「かがむ」、「止まる」、「起こす」の順序の動作(動作パターン)が行われ、この動作パターンが「病室」で行われたものであり、且つ動作パターンが行われるのに要した時間が「1分」以内であった場合、利用者である看護師の作業は「患者の体を起こす」であったと対応付けるモデルである。また、対応モデル34は、動作の繰り返しや、一定時間内の動作の発生比率などによっても特定の作業が対応付けられるように構成されている。なお、利用者の行動は、対応モデル34によって特定の作業に対応付けられると、作業名56に示された作業名のいずれかも定められる。   FIG. 5 is a chart showing a configuration example of the correspondence model 34. As shown in FIG. 5, in the correspondence model 34, for example, information on the movement pattern 50, position 52, and time 54 is associated with information on the work name 56. For example, in the correspondence model 34, operations (operation patterns) in the order of “bend over”, “stop”, and “wake up” are performed, and this operation pattern is performed in the “patient room” and the operation pattern is performed. When the time required for the patient is within “1 minute”, it is a model that associates that the work of the nurse as the user was “raise the patient's body”. Further, the correspondence model 34 is configured such that a specific work is associated with the repetition of the operation, the occurrence ratio of the operation within a certain time, and the like. Note that when the user's action is associated with a specific work by the correspondence model 34, any one of the work names indicated in the work name 56 is determined.

作業認識部35(図2)は、制御部26などにより構成され、加速度検知部330が検知した時刻が対応付けられた加速度データを受入れて、まず利用者の時刻を対応付けられた動作を認識する。次に、作業認識部35は、認識した動作と、位置検知部332が検知した利用者の時刻を対応付けられた位置データと、対応モデル34とを用いて利用者の時刻を対応付けられた作業を認識する。つまり、作業認識部35は、動作及び作業それぞれの開始時刻及び終了時刻も認識する。   The work recognition unit 35 (FIG. 2) is configured by the control unit 26 and the like, accepts acceleration data associated with the time detected by the acceleration detection unit 330, and first recognizes the operation associated with the user's time. To do. Next, the work recognition unit 35 associates the user's time using the correspondence model 34 with the position data in which the recognized motion is associated with the user's time detected by the position detection unit 332. Recognize work. That is, the work recognition unit 35 also recognizes the start time and the end time of each operation and work.

例えば、作業認識部35は、図5に示された「患者の体を起こす」という作業を認識する場合、まず、「かがむ」、「止まる」、「起こす」という動作を認識する。ここで、作業認識部35は、「かがむ」の動作に対応する加速度データの開始時刻が時刻tsである場合、「かがむ」の動作の開始時刻を時刻tsとする。   For example, when recognizing the work of “raising the patient's body” shown in FIG. 5, the work recognition unit 35 first recognizes the actions of “bend”, “stop”, and “wake up”. Here, when the start time of the acceleration data corresponding to the “creasing” operation is time ts, the work recognition unit 35 sets the start time of the “creasing” operation as time ts.

作業認識部35は、「かがむ」の動作に続いて、「止まる」、「起こす」の動作を認識し、「起こす」の動作に対応する加速度データの終了時刻が時刻teである場合、「起こす」の動作の終了時刻を時刻teとする。   The work recognizing unit 35 recognizes the “stop” and “wake up” operations following the “bend” operation, and when the end time of the acceleration data corresponding to the “wake up” operation is the time te, Is the time te.

そして、作業認識部35は、「かがむ」、「止まる」、「起こす」の一連の動作を「患者の体を起こす」の作業と認識すると、「患者の体を起こす」の作業の開始時刻を時刻tsとし、作業の終了時刻を時刻teとする。   Then, when the work recognition unit 35 recognizes the series of operations of “bend”, “stop”, and “wake up” as the work of “raise the patient's body”, the work recognition unit 35 sets the start time of the work of “raise the patient's body” Time ts is assumed, and work end time is assumed to be time te.

対応辞書36(図2)は、作業認識部35が認識した特定の作業において、音声認識部32が認識した音声データの文字列としての重要度を重要度判定部37が判定するために使用する辞書であり、例えば記憶部25に記憶されている。   The correspondence dictionary 36 (FIG. 2) is used by the importance level determination unit 37 to determine the importance level of the voice data recognized by the voice recognition unit 32 in the specific work recognized by the work recognition unit 35. A dictionary, for example, stored in the storage unit 25.

図6は、対応辞書36の構成例を示す図表である。対応辞書36は、特定の作業において重要な文字列(例えばキーワード)及び文字列の属性の少なくともいずれかが、特定の作業に対応付けられている。図6において、「<数字>」のように、「<」と「>」で囲まれた文字列は、その文字列が示すクラスに属するキーワード(属性が同じキーワード)であれば任意の文字列が対応付けられることを表す。   FIG. 6 is a chart showing a configuration example of the correspondence dictionary 36. In the correspondence dictionary 36, at least one of a character string (for example, a keyword) and a character string attribute important in a specific work is associated with the specific work. In FIG. 6, a character string enclosed by “<” and “>”, such as “<number>”, is an arbitrary character string as long as it is a keyword (a keyword having the same attribute) belonging to the class indicated by the character string. Represents that they are associated with each other.

例えば、「<数字>」が示す部分には数字を示す任意の文字列が対応付けられる。つまり、対応辞書36は、「傷の大きさを測る」という作業に認識された期間に、「10センチ」という認識された文字列が対応付けられると(「10センチ」という音声が発せられていると)、「10センチ」という文字列は重要度が高い文字列であると判定されるように構成されている。また、作業の種類によって音声(文字列)の重要度が異なるため、対応辞書36は、同一の文字列であっても対応付けられる作業によって重要度が異なる判定を可能にしている。   For example, an arbitrary character string indicating a number is associated with the portion indicated by “<number>”. In other words, the correspondence dictionary 36 generates a voice of “10 cm” when the recognized character string “10 cm” is associated with the period recognized by the work “measure the size of the wound”. The character string “10 centimeters” is determined to be a character string having high importance. In addition, since the importance level of the voice (character string) varies depending on the type of work, the correspondence dictionary 36 enables determination that the importance level varies depending on the work associated with the same character string.

なお、図6においてキーワードとして挙げられている文字列は、活用又は変形されても作業に対応付けられるように、活用例又は変形例を合わせて列挙されたり、活用又は変形の定義付けをされてもよい。また、図6においては、対応辞書36は、特定の作業に対して重要度が同レベルである文字列及び文字列の属性の少なくともいずれかが対応付けられているが、特定の作業に対して重要度のレベルが異なる複数のレベルの文字列及び文字列の属性の少なくともいずれかが区別されて対応付けられていてもよい。   Note that the character strings listed as keywords in FIG. 6 are enumerated together with examples of use or modifications, or defined for use or modification so that they can be associated with work even if they are used or modified. Also good. In FIG. 6, the correspondence dictionary 36 associates at least one of a character string and a character string attribute having the same level of importance with respect to a specific work. At least one of a plurality of levels of character strings and character string attributes having different levels of importance may be distinguished and associated.

重要度判定部37(図2)は、制御部26などにより構成される。重要度判定部37は、作業認識部35が認識した特定の作業(作業の期間)において、音声認識部32が認識した音声データの文字列としての重要度を、対応辞書36を用いて判定し、判定結果を出力部38に対して出力する。例えば、重要度判定部37は、作業認識部35が「傷の大きさを測る」という作業に認識した期間に対し、音声認識部32が「10センチ」という文字列を認識した場合、対応辞書36に従って「10センチ」という文字列は重要度が高いと判定する。   The importance level determination unit 37 (FIG. 2) includes the control unit 26 and the like. The importance level determination unit 37 uses the correspondence dictionary 36 to determine the importance level as a character string of the voice data recognized by the voice recognition unit 32 in the specific work (work period) recognized by the work recognition unit 35. The determination result is output to the output unit 38. For example, when the speech recognition unit 32 recognizes the character string “10 centimeters” for the period in which the work recognition unit 35 recognizes the work “measure the size of the wound”, the importance level determination unit 37 corresponds to the correspondence dictionary. According to 36, the character string “10 centimeters” is determined to have high importance.

一方、重要度判定部37は、音声認識部32が「10センチ」という文字列を認識しても、作業認識部35が認識した作業が「傷の大きさを測る」という作業でなければ、「10センチ」という文字列の重要度が高いとは判定しない。   On the other hand, even if the voice recognition unit 32 recognizes the character string “10 centimeters”, the importance determination unit 37 does not recognize that the work recognized by the work recognition unit 35 is a work “measures the size of a wound”. It is not determined that the importance of the character string “10 cm” is high.

出力部38は、重要度判定部37が判定した結果を受入れて出力する。ここで、出力部38は、図1に示した表示部202であってもよい。つまり、出力部38は、重要度判定部37が判定した結果を表示することによって出力してもよい。   The output unit 38 receives and outputs the result determined by the importance level determination unit 37. Here, the output unit 38 may be the display unit 202 shown in FIG. That is, the output unit 38 may output the result determined by the importance level determination unit 37 by displaying the result.

また、出力部38は、通信部24(図1)であってもよい。つまり、出力部38は、重要度判定部37が判定した結果を例えば外部のPC(Personal Computer)などに対して送信することによって出力してもよい。そして、利用者は、外部のPCを用いて重要度判定部37の判定結果を表示させたり、加工するようにしてもよい。   The output unit 38 may be the communication unit 24 (FIG. 1). That is, the output unit 38 may output the result determined by the importance level determination unit 37 by transmitting the result to, for example, an external PC (Personal Computer). Then, the user may display or process the determination result of the importance determination unit 37 using an external PC.

(第1の表示例)
図7は、重要度判定部37が判定した結果を表示部202が表示した場合の第1の表示例である。図7に示すように、表示部202は、重要度判定部37の判定結果を受けると、認識(推定)した作業を時系列に表示する。また、表示部202は、時系列に表示した作業に対応する文字列を、作業と文字列とが対応するように配置し、例えば音声が発せられた順に上から下へ並べて表示する。
(First display example)
FIG. 7 is a first display example when the display unit 202 displays the result determined by the importance level determination unit 37. As illustrated in FIG. 7, when the display unit 202 receives the determination result of the importance determination unit 37, the display unit 202 displays the recognized (estimated) work in time series. The display unit 202 arranges the character strings corresponding to the tasks displayed in time series so that the tasks correspond to the character strings, and displays them by arranging them from the top to the bottom in the order in which, for example, sounds are emitted.

また、表示部202は、特定の作業ごとに、文字列を重要度に応じて区別して表示する。例えば、表示部202は、「304号室_傷の大きさを測る」(作業A)において、重要度の高い文字列102(「赤くなってる」)及び文字列104(「10センチ」)を、文字列100及び文字列106に対して強調して表示する。表示部202は、文字列の色を変えたり、太さや大きさを変えることにより、表示の強調を行う。また、表示部202は、「304号室_薬を塗る」(作業B)において、重要度の高い文字列110(「○○(薬の名前)」)及び文字列114(「ガーゼ貼った」)を、文字列108、文字列112及び文字列116に対して強調して表示する。   Further, the display unit 202 distinguishes and displays character strings according to importance for each specific work. For example, the display unit 202 displays the character string 102 (“red”) and the character string 104 (“10 centimeters”) with high importance in “Room 304_Measure the size of the wound” (operation A). The character string 100 and the character string 106 are highlighted and displayed. The display unit 202 emphasizes the display by changing the color of the character string or changing the thickness or size. In addition, the display unit 202 displays a highly important character string 110 (“◯◯ (medicine name)”) and character string 114 (“gauze pasted”) in “Room 304_Applying medicine” (operation B). Is highlighted with respect to the character string 108, the character string 112, and the character string 116.

ここで、作業Aにおける文字列102と、作業Bにおける文字列108とは、いずれも文字列の属性が<色み>であり、赤色を示す文字列となっている。しかし、作業Aにおいて赤色を示す文字列の重要度が高くても、作業Bにおいて赤色を示す文字列の重要度が高くないため、表示部202は、文字列102と文字列108とに対して異なる表示をしている。   Here, both the character string 102 in the work A and the character string 108 in the work B are character strings having a color attribute of <color> and indicating red. However, even if the importance of the character string indicating red in the work A is high, the importance of the character string indicating red in the work B is not high, so the display unit 202 displays the character string 102 and the character string 108. The display is different.

なお、音声記録選択装置1(図2)は、図1によってハードウェア構成を例示したように、利用者の操作入力を受け入れる機能を備えた操作受入部40、及び音声などを出力する機能を備えた音声出力部41を有していてもよい。   Note that the voice recording selection device 1 (FIG. 2) has a function of outputting an operation reception unit 40 having a function of accepting a user's operation input and a function of outputting a voice, as exemplified by the hardware configuration in FIG. The audio output unit 41 may be included.

また、表示部202は、複数の作業の中から操作受入部40を介して選択された1つの作業に対応する文字列だけを表示するなど、操作受入部40を介して入力される操作に応じて任意の選択された表示を行うように構成されてもよい。   In addition, the display unit 202 displays only a character string corresponding to one task selected from the plurality of tasks via the operation receiving unit 40, and responds to an operation input via the operation receiving unit 40. Any selected display may be configured.

(第2の表示例)
図8は、重要度判定部37が判定した結果を表示部202が表示した場合の第2の表示例である。なお、図8に示した第2の表示例は、通信部24(図1)を介して外部のPCなどに表示されるものであってもよい。また、第2の表示例に示された操作入力に伴う表示等も、外部のPCなどの操作入力に応じて表示等される(表示以外の動作も含む)ものであってもよい。
(Second display example)
FIG. 8 is a second display example when the display unit 202 displays the result determined by the importance level determination unit 37. Note that the second display example shown in FIG. 8 may be displayed on an external PC or the like via the communication unit 24 (FIG. 1). Further, the display associated with the operation input shown in the second display example may be displayed according to the operation input of an external PC or the like (including operations other than the display).

図8に示すように、表示部202は、重要度判定部37の判定結果を受けると、音声データの連続音声期間(図3参照)、認識(推定)した作業及び業務を時系列に対応付けて表示する。なお、図8において、図7に示した作業と同一の作業には、同一の符号が付してある。   As shown in FIG. 8, when the display unit 202 receives the determination result of the importance level determination unit 37, the display unit 202 associates the continuous voice period of voice data (see FIG. 3), the recognized (estimated) work, and the work with time series. To display. In FIG. 8, the same reference numerals are given to the same operations as those shown in FIG.

図8(a)に示すように、例えば、作業Aの期間には連続音声期間d1、d2が対応付けられ、作業Bの期間には連続音声期間d3〜d6が対応付けられている。表示部202は、作業Aの開始時刻に開始時刻表示70を表示し、作業Aの終了時刻に終了時刻表示72を表示する。また、表示部202は、作業Bの開始時刻に開始時刻表示74を表示し、作業Bの終了時刻に終了時刻表示76を表示する。開始時刻表示70、74及び終了時刻表示72、76は、例えば操作受入部40を介して入力される操作に応じてポインタ60によりスライドさせられて、それぞれの時刻を前後に変更可能にされている。つまり、音声記録選択装置1は、利用者が操作受入部40を介して開始時刻表示70、74及び終了時刻表示72、76を移動させることにより、作業A、Bの開始時刻及び終了時刻の表示及び時刻データを変更可能にされている。   As shown in FIG. 8A, for example, the continuous sound periods d1 and d2 are associated with the period of the work A, and the continuous sound periods d3 to d6 are associated with the period of the work B. The display unit 202 displays the start time display 70 at the start time of the work A, and displays the end time display 72 at the end time of the work A. Further, the display unit 202 displays a start time display 74 at the start time of the work B, and displays an end time display 76 at the end time of the work B. The start time displays 70 and 74 and the end time displays 72 and 76 are slid by the pointer 60 according to an operation input through the operation receiving unit 40, for example, and the respective times can be changed back and forth. . That is, the voice recording selection apparatus 1 displays the start time and end time of the operations A and B by moving the start time displays 70 and 74 and the end time displays 72 and 76 via the operation receiving unit 40 by the user. And the time data can be changed.

例えば、作業Bの期間においては、連続音声期間d3の開始時刻が作業Bの開始時刻とされており、連続音声期間d6の終了時刻が作業Bの終了時刻とされている。図8(a)に示すように、終了時刻表示76が表示部202上でスライドさせられると、音声記録選択装置1は、作業Bの終了時刻を変更する処理を行う。   For example, in the period of the work B, the start time of the continuous sound period d3 is set as the start time of the work B, and the end time of the continuous sound period d6 is set as the end time of the work B. As shown in FIG. 8A, when the end time display 76 is slid on the display unit 202, the audio recording selection device 1 performs a process of changing the end time of the work B.

また、作業Aの終了時刻は、連続音声期間d2の終了時刻と一致していない。つまり、図8(a)は、終了時刻表示72が移動させられた結果、連続音声期間の終了時刻にかかわらず、作業Aの終了時刻が変更された状態を示している。   Further, the end time of the work A does not coincide with the end time of the continuous sound period d2. That is, FIG. 8A shows a state in which the end time of the work A is changed as a result of the end time display 72 being moved regardless of the end time of the continuous audio period.

図8(b)は、終了時刻表示76が表示部202上でスライドさせられた場合の音声記録選択装置1の動作を例示している。例えば、終了時刻表示76が時刻を前倒しする方向にスライドさせられ、連続音声期間d6の表示に重ねられると、音声記録選択装置1は、音声記録部31が記録している音声データから連続音声期間d6に発せられた音声データを選択する。そして、音声記録選択装置1は、連続音声期間d6に発せられた音声データを用いて、音声出力部41による音声出力を行う。   FIG. 8B illustrates the operation of the audio recording selection device 1 when the end time display 76 is slid on the display unit 202. For example, when the end time display 76 is slid in the direction of moving the time forward and superimposed on the display of the continuous sound period d6, the sound recording selection device 1 starts the continuous sound period from the sound data recorded by the sound recording unit 31. The voice data issued at d6 is selected. And the audio | voice recording selection apparatus 1 performs the audio | voice output by the audio | voice output part 41 using the audio | voice data emitted in the continuous audio | voice period d6.

また、音声記録選択装置1は、終了時刻表示76が時刻を前倒しする方向にスライドさせられ、作業Bの表示に重ねられると、音声記録部31が記録している音声データから作業Aの期間に発せられた音声データ(連続音声期間d3〜d6の音声データ)を選択するように構成されてもよい。そして、音声記録選択装置1は、連続音声期間d3〜d6に発せられた音声データを用いて、音声出力部41による音声出力を行う。   In addition, when the end time display 76 is slid in the forward direction and overlapped with the operation B display, the audio recording selection device 1 starts from the audio data recorded by the audio recording unit 31 during the operation A period. You may be comprised so that the audio | voice data (audio | voice data of continuous audio | voice period d3-d6) emitted may be selected. And the audio | voice recording selection apparatus 1 performs the audio | voice output by the audio | voice output part 41 using the audio | voice data emitted in the continuous audio | voice periods d3-d6.

音声記録選択装置1は、作業の開始時刻又は終了時刻が変更された場合、開始時刻又は終了時刻が変更された作業に対して文字列の重要度の判定を改めて行うように構成されてもよい。また、表示部202は、第2の表示例が表示する情報に加えて、第1の表示例で表示した文字列を表示するように構成されてもよい。   The voice recording / selecting device 1 may be configured such that when the start time or the end time of the work is changed, the importance of the character string is determined again for the work whose start time or the end time is changed. . The display unit 202 may be configured to display the character string displayed in the first display example in addition to the information displayed in the second display example.

次に、音声記録選択装置1の動作について説明する。図9は、実施形態にかかる音声記録選択装置1の動作を例示するフローチャートである。音声記録選択装置1は、例えば電源がオンにされると、音声受入部30が音声の受入れを開始し、情報検知部33が検知を開始する。   Next, the operation of the audio recording selection device 1 will be described. FIG. 9 is a flowchart illustrating the operation of the audio recording selection device 1 according to the embodiment. In the audio recording / selecting device 1, for example, when the power is turned on, the audio receiving unit 30 starts to receive audio, and the information detecting unit 33 starts detection.

図9に示すように、ステップ100(S100)において、音声認識部32は、音声受入部30が受入れた音声を認識し、時刻が対応付けられた文字列(テキスト)に変換する。   As shown in FIG. 9, in step 100 (S100), the voice recognition unit 32 recognizes the voice received by the voice receiving unit 30, and converts it into a character string (text) associated with time.

ステップ102(S102)において、作業認識部35は、情報検知部33が検知した加速度データ及び位置データなどを受入れて、利用者の時刻を対応付けられた作業(作業情報)を認識する。   In step 102 (S102), the work recognition unit 35 accepts the acceleration data and the position data detected by the information detection unit 33, and recognizes the work (work information) associated with the user's time.

ステップ104(S104)において、重要度判定部37は、作業認識部35が認識した作業(作業の期間)において、音声認識部32が認識した文字列としての重要度を、対応辞書36を用いて判定する。   In step 104 (S104), the importance level determination unit 37 uses the correspondence dictionary 36 to determine the importance level as a character string recognized by the voice recognition unit 32 in the work (work period) recognized by the work recognition unit 35. judge.

ステップ106(S106)において、表示部202は、重要度判定部37が判定した結果を受入れ、テキストを重要度に応じて区別して表示する。   In step 106 (S106), the display unit 202 accepts the result determined by the importance level determination unit 37, and displays the text separately according to the importance level.

本実施形態においては、情報検知部33の検知結果を用いて特定の作業を認識し、認識した作業に対して音声認識部32が認識した文字列の重要度を判定する場合を例に説明したが、音声記録選択装置1の動作はこれに限定されない。例えば、音声記録選択装置1は、開始時刻及び終了時刻が定められた特定の作業を示す予定表などのデータ(作業情報)を作業認識部35が読み込み、予定表に示される作業に対して音声認識部32が認識した文字列の重要度を重要度判定部37が判定するように構成されてもよい。また、音声記録選択装置1が音声を記録して文字列の重要度を判定する言語は、日本語に限らず、他の言語であってもよい。   In this embodiment, the case where a specific work is recognized using the detection result of the information detection unit 33 and the importance of the character string recognized by the voice recognition unit 32 is determined with respect to the recognized work has been described as an example. However, the operation of the audio recording selection device 1 is not limited to this. For example, in the voice recording / selecting device 1, the work recognition unit 35 reads data (work information) such as a schedule showing a specific work having a start time and an end time, and a voice is sent to the work shown in the schedule. The importance determination unit 37 may be configured to determine the importance of the character string recognized by the recognition unit 32. The language in which the voice recording selection device 1 records voice and determines the importance of the character string is not limited to Japanese, and may be another language.

以上説明した実施形態によれば、音声を記録していた記録時間と同等の時間をかけることなく、音声から変換された文字列を特定の作業における重要度に応じて区別して出力することができる。   According to the embodiment described above, the character string converted from the voice can be distinguished and output according to the importance in the specific work without taking the time equivalent to the recording time for recording the voice. .

また、本発明の実施形態を複数の組み合わせによって説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Moreover, although embodiment of this invention was described by the several combination, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 音声記録選択装置
20 操作部
200 入力部
202 表示部
21 マイク
22 検知部
220 加速度センサ
222 測位センサ
23 スピーカ
24 通信部
25 記憶部
26 制御部
30 音声受入部
31 音声記録部
32 音声認識部
33 情報検知部
330 加速度検知部
332 位置検知部
334 脈拍検知部
336 温度検知部
34 対応モデル
35 作業認識部
36 対応辞書
37 重要度判定部
38 出力部
40 操作受入部
41 音声出力部











DESCRIPTION OF SYMBOLS 1 Voice recording selection apparatus 20 Operation part 200 Input part 202 Display part 21 Microphone 22 Detection part 220 Acceleration sensor 222 Positioning sensor 23 Speaker 24 Communication part 25 Storage part 26 Control part 30 Voice reception part 31 Voice recording part 32 Voice recognition part 33 Information Detection unit 330 Acceleration detection unit 332 Position detection unit 334 Pulse detection unit 336 Temperature detection unit 34 Corresponding model 35 Work recognition unit 36 Corresponding dictionary 37 Importance determination unit 38 Output unit 40 Operation reception unit 41 Audio output unit











Claims (9)

利用者からの音声を受入れる音声受入部と、
前記音声を認識して文字列に変換する音声認識部と、
開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識する作業認識部と、
前記特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、前記特定の作業における前記文字列及び前記属性の重要度と、を前記特定の作業に対応付けた対応辞書を記憶する記憶部と、
前記作業情報及び前記対応辞書に基づいて、前記特定の作業の開示時刻から終了時刻までの期間に受入れられた前記音声から変換された文字列の重要度を判定する重要度判定部と、
前記期間に受入れられた前記音声から変換された文字列を、前記重要度に応じて区別して出力する出力部と、
を有する音声記録選択装置。
An audio receiving unit that receives audio from the user;
A voice recognition unit that recognizes the voice and converts it into a character string;
A work recognizing unit for recognizing work information indicating a specific work having a start time and an end time;
A storage for storing a correspondence dictionary in which at least one of a character string and a character string attribute important in the specific work and an importance level of the character string and the attribute in the specific work are associated with the specific work. And
Based on the work information and the correspondence dictionary, an importance level determination unit that determines the importance level of the character string converted from the speech accepted in the period from the disclosure time to the end time of the specific work,
An output unit that outputs a character string converted from the speech accepted in the period, according to the importance, and
An audio recording selection device having
前記作業情報は、複数の動作により構成される複数の特定の作業を示し、前記属性の重要度は、前記作業の種類によって異なる
請求項1に記載の音声記録選択装置。
The voice recording selection device according to claim 1, wherein the work information indicates a plurality of specific works configured by a plurality of operations, and the importance of the attribute varies depending on the type of the work.
利用者の加速度及び前記利用者の位置の少なくともいずれかを検知する検知部をさらに有し、
前記記憶部は、
前記利用者の加速度により特定される動作の組合せ及び前記利用者の位置の少なくともいずれかと、前記特定の作業との対応を示す対応モデルをさらに記憶し、
前記作業認識部は、
前記検知部が検知した前記利用者の加速度により特定された動作の組合せ及び前記検知部が検知した前記利用者の位置の少なくともいずれか並びに前記対応モデルに応じて前記作業情報を認識する
請求項1に記載の音声記録選択装置。
A detector that detects at least one of a user's acceleration and the user's position;
The storage unit
Further storing a correspondence model indicating a correspondence between the specific task and at least one of a combination of movements specified by the user's acceleration and the user's position;
The work recognition unit
2. The work information is recognized according to at least one of a combination of movements identified by the user's acceleration detected by the detection unit, the position of the user detected by the detection unit, and the corresponding model. The audio recording selection device according to 1.
前記出力部は、
前記作業情報に応じて前記期間を表示する出力、及び前記期間に前記音声受入部が受入れた音声から変換された文字列を前記重要度に応じて区別して表示する出力を行い、
前記出力部が表示した前記期間を特定する入力を受入れる操作受入部と、
前記音声受入部が受入れた音声を記録する音声記録部と、
音声を出力する音声出力部と、
前記操作受入部が受入れた入力により特定された前記期間に前記音声記録部が記録した音声を前記音声出力部が出力するよう制御する制御部と、
をさらに有する
請求項3に記載の音声記録選択装置。
The output unit is
The output for displaying the period according to the work information, and the output for distinguishing and displaying the character string converted from the voice received by the voice receiving unit during the period, according to the importance,
An operation receiving unit for receiving an input specifying the period displayed by the output unit;
An audio recording unit for recording the audio received by the audio receiving unit;
An audio output unit for outputting audio;
A control unit for controlling the audio output unit to output the audio recorded by the audio recording unit during the period specified by the input received by the operation receiving unit;
The voice recording / selecting device according to claim 3.
前記検知部は、
前記利用者の脈拍及び前記利用者が位置する環境の温度の少なくともいずれかをさらに検知し、
前記対応モデルは、
前記検知部が検知する前記利用者の脈拍及び前記利用者が位置する環境の温度の少なくともいずれかと、前記特定の作業との対応を示す情報をさらに含み、
前記作業認識部は、
前記検知部が検知した前記利用者の加速度により特定された動作の組合せ、前記利用者の位置、前記利用者の脈拍及び前記利用者が位置する環境の温度の少なくともいずれか並びに前記対応モデルに応じて前記作業情報を認識する
請求項3に記載の音声記録選択装置。
The detector is
Further detecting at least one of the pulse of the user and the temperature of the environment where the user is located,
The corresponding model is
And further includes information indicating a correspondence between the specific operation and at least one of the pulse of the user detected by the detection unit and the temperature of the environment where the user is located,
The work recognition unit
According to the combination of movements identified by the user's acceleration detected by the detection unit, the position of the user, the pulse of the user, the temperature of the environment where the user is located, and the corresponding model The voice recording selection device according to claim 3, wherein the work information is recognized.
前記操作受入部は、
前記出力部が表示した前記期間を変更する入力をさらに受入れ、
前記制御部は、
前記操作受入部が受入れた前記期間を変更する入力に応じて、前記作業情報を変更するようさらに制御する
請求項4に記載の音声記録選択装置。
The operation receiving unit is
Further accepting an input to change the period displayed by the output unit;
The controller is
The voice recording selection device according to claim 4, further controlling to change the work information in response to an input to change the period received by the operation receiving unit.
前記出力部は、
前記期間内に前記音声記録部が連続する音声を記録した連続音声期間をさらに表示する出力を行い、
前記操作受入部は、
前記連続音声期間を特定する入力をさらに受入れ、
前記制御部は、
前記操作受入部が受入れた入力により特定された前記連続音声期間に前記音声記録部が記録した音声を前記音声出力部が出力するようさらに制御する
請求項6に記載の音声記録選択装置。
The output unit is
Performing an output to further display a continuous audio period in which the audio recording unit records continuous audio within the period;
The operation receiving unit is
Further accepting input specifying the continuous speech period;
The controller is
The voice recording selection device according to claim 6, further controlling the voice output unit to output the voice recorded by the voice recording unit during the continuous voice period specified by the input received by the operation receiving unit.
音声記録選択装置によって音声記録を選択する音声記録選択方法であって、
前記音声記録選択装置は、特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、前記特定の作業における前記文字列及び前記属性の重要度と、を前記特定の作業に対応付けた対応辞書を記憶する記憶部を備え、
音声受入部が受入れた利用者からの音声を認識して文字列に変換する工程と、
開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識する工程と、
前記作業情報及び前記対応辞書に基づいて、前記特定の作業の開示時刻から終了時刻までの期間に受入れられた前記音声から変換された文字列の重要度を判定する工程と、
前記期間に受入れられた前記音声から変換された文字列を、前記重要度に応じて区別して出力する工程と、
を含む音声記録選択方法。
An audio recording selection method for selecting audio recording by an audio recording selection device ,
The voice recording selection device associates at least one of a character string and a character string attribute important in a specific work, and the importance of the character string and the attribute in the specific work with the specific work. A storage unit for storing a corresponding dictionary is provided.
A step of recognizing a voice from a user received by the voice receiving unit and converting the voice into a character string;
Recognizing work information indicating a specific work with a start time and an end time; and
Determining the importance of the character string converted from the speech accepted in the period from the disclosure time to the end time of the specific work based on the work information and the correspondence dictionary;
A step of distinguishing and outputting a character string converted from the speech accepted in the period according to the importance;
Voice recording selection method including.
音声受入部が受入れた利用者からの音声を認識して文字列に変換するステップと、
開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識するステップと、 前記特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、前記特定の作業における前記文字列及び前記属性の重要度と、を前記特定の作業に対応付けた対応辞書、及び前記作業情報に基づいて、前記特定の作業の開示時刻から終了時刻までの期間に受入れられた前記音声から変換された文字列の重要度を判定するステップと、
前記期間に受入れられた前記音声から変換された文字列を、前記重要度に応じて区別して出力するステップと、
をコンピュータに実行させるための音声記録選択プログラム。
A step of recognizing a voice from a user received by the voice receiving unit and converting the voice into a character string;
Recognizing work information indicating a specific work for which a start time and an end time are defined; at least one of a character string and a character string attribute important in the specific work; the character string in the specific work; and Based on the correspondence dictionary in which the degree of importance of the attribute is associated with the specific work, and the work information, the voice is converted from the speech accepted in the period from the disclosure time to the end time of the specific work. Determining the importance of the string;
A character string converted from the speech accepted in the period, and output according to the importance,
Audio recording selection program for causing a computer to execute.
JP2012038955A 2012-02-24 2012-02-24 Audio recording selection device, audio recording selection method, and audio recording selection program Active JP5426706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012038955A JP5426706B2 (en) 2012-02-24 2012-02-24 Audio recording selection device, audio recording selection method, and audio recording selection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012038955A JP5426706B2 (en) 2012-02-24 2012-02-24 Audio recording selection device, audio recording selection method, and audio recording selection program

Publications (2)

Publication Number Publication Date
JP2013174718A JP2013174718A (en) 2013-09-05
JP5426706B2 true JP5426706B2 (en) 2014-02-26

Family

ID=49267674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012038955A Active JP5426706B2 (en) 2012-02-24 2012-02-24 Audio recording selection device, audio recording selection method, and audio recording selection program

Country Status (1)

Country Link
JP (1) JP5426706B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6601018B2 (en) * 2015-06-30 2019-11-06 富士通株式会社 Work management program, work management method, and work management system
JP6436582B2 (en) * 2016-03-17 2018-12-12 三菱重工業株式会社 Work result recording system, work result recording method and program
JP6250852B1 (en) * 2017-03-16 2017-12-20 ヤフー株式会社 Determination program, determination apparatus, and determination method
JP6560321B2 (en) * 2017-11-15 2019-08-14 ヤフー株式会社 Determination program, determination apparatus, and determination method
JP7154754B2 (en) * 2017-12-06 2022-10-18 東芝デジタルソリューションズ株式会社 Measuring information input support system
JP2020030468A (en) * 2018-08-20 2020-02-27 アイホン株式会社 Nursing service support system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090287488A1 (en) * 2006-03-24 2009-11-19 Nec Corporation Text display, text display method, and program
JP2010256391A (en) * 2009-04-21 2010-11-11 Takeshi Hanamura Voice information processing device

Also Published As

Publication number Publication date
JP2013174718A (en) 2013-09-05

Similar Documents

Publication Publication Date Title
JP5426706B2 (en) Audio recording selection device, audio recording selection method, and audio recording selection program
KR102389625B1 (en) Electronic apparatus for processing user utterance and controlling method thereof
EP3709294B1 (en) Electronic device for providing speech recognition service and method thereof
BR112015018905B1 (en) Voice activation feature operation method, computer readable storage media and electronic device
KR20180060328A (en) Electronic apparatus for processing multi-modal input, method for processing multi-modal input and sever for processing multi-modal input
CN103959751A (en) Automatically adapting user interfaces for hands-free interaction
KR102343084B1 (en) Electronic device and method for executing function of electronic device
WO2020244355A1 (en) Microphone signal-based voice interaction wake-up electronic device, method, and medium
JP6083799B2 (en) Mobile device location determination method, mobile device, mobile device location determination system, program, and information storage medium
WO2020244402A1 (en) Speech interaction wakeup electronic device and method based on microphone signal, and medium
WO2020244416A1 (en) Voice interactive wakeup electronic device and method based on microphone signal, and medium
KR102628211B1 (en) Electronic apparatus and thereof control method
EP3738117B1 (en) System for processing user utterance and controlling method thereof
TW200820217A (en) Mobile device with acoustically-driven text input and method thereof
WO2020244411A1 (en) Microphone signal-based voice interaction wakeup electronic device and method, and medium
CN105580071A (en) Method and apparatus for training a voice recognition model database
WO2016183961A1 (en) Method, system and device for switching interface of smart device, and nonvolatile computer storage medium
JP2018025855A (en) Information processing server, information processing device, information processing system, information processing method, and program
CN106874057A (en) A kind of information input method and its equipment
JP6125445B2 (en) Life log recording system and program thereof
CN110830368A (en) Instant messaging message sending method and electronic equipment
WO2016206646A1 (en) Method and system for urging machine device to generate action
KR20180108321A (en) Electronic device for performing an operation for an user input after parital landing
JP5988077B2 (en) Utterance section detection apparatus and computer program for detecting an utterance section
EP4310636A1 (en) Gesture interaction method, system, and apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131128

R151 Written notification of patent or utility model registration

Ref document number: 5426706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350