JP5426706B2 - Audio recording selection device, audio recording selection method, and audio recording selection program - Google Patents
Audio recording selection device, audio recording selection method, and audio recording selection program Download PDFInfo
- Publication number
- JP5426706B2 JP5426706B2 JP2012038955A JP2012038955A JP5426706B2 JP 5426706 B2 JP5426706 B2 JP 5426706B2 JP 2012038955 A JP2012038955 A JP 2012038955A JP 2012038955 A JP2012038955 A JP 2012038955A JP 5426706 B2 JP5426706 B2 JP 5426706B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- voice
- work
- character string
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明の実施形態は、音声記録選択装置、音声記録選択方法及び音声記録選択プログラムに関する。 Embodiments described herein relate generally to an audio recording selection device, an audio recording selection method, and an audio recording selection program.
従来、業務上の情報などを音声で記録することが知られている。音声を記録した利用者は、音声を再生することによって業務上の情報などを遡って確認することができる。 Conventionally, it is known to record business information by voice. The user who recorded the sound can check the business information and the like retroactively by reproducing the sound.
しかしながら、業務記録の基となる情報をメモに代えて業務中の音声で記録し、記録した音声から業務記録を作成する場合などには、音声を記録していた業務時間(記録時間)と同等の時間をかけて音声を再生する必要があった。 However, when the information that is the basis of the business record is recorded with the voice during work instead of the memo and the business record is created from the recorded voice, it is equivalent to the work time (recording time) where the voice was recorded. It was necessary to play the voice over the time.
実施形態の音声記録選択装置は、音声受入部と、音声認識部と、作業認識部と、記憶部と、重要度判定部と、出力部と、を有する。音声受入部は、利用者からの音声を受入れる。音声認識部は、音声を認識して文字列に変換する。作業認識部は、開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識する。記憶部は、特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、特定の作業における文字列及び属性の重要度と、を特定の作業に対応付けた対応辞書を記憶する。重要度判定部は、作業情報及び対応辞書に基づいて、特定の作業の開示時刻から終了時刻までの期間に受入れられた音声から変換された文字列の重要度を判定する。出力部は、開示時刻から終了時刻までの期間に受入れられた音声から変換された文字列を、重要度に応じて区別して出力する。 The voice recording selection apparatus according to the embodiment includes a voice receiving unit, a voice recognition unit, a work recognition unit, a storage unit, an importance level determination unit, and an output unit. The voice receiving unit receives voice from the user . The voice recognition unit recognizes the voice and converts it into a character string. The work recognition unit recognizes work information indicating a specific work for which a start time and an end time are determined. The storage unit stores a correspondence dictionary in which at least one of a character string and an attribute of a character string important in a specific work and an importance level of the character string and the attribute in the specific work are associated with the specific work. The importance level determination unit determines the importance level of the character string converted from the speech received during the period from the disclosure time of the specific task to the end time based on the task information and the correspondence dictionary. The output unit distinguishes and outputs the character string converted from the speech accepted in the period from the disclosure time to the end time according to the importance.
以下に添付図面を参照して、音声記録選択装置の実施の形態を詳細に説明する。図1は、実施形態にかかる音声記録選択装置1の構成を例示するハードウェア構成図である。図1に示すように、音声記録選択装置1は、例えば操作部20、マイク21、検知部22、スピーカ23、通信部24、記憶部25及び制御部26を有するコンピュータとしての機能を備えた携帯端末装置である。例えば、音声記録選択装置1は、スマートフォンなどであってもよい。
Embodiments of an audio recording selection apparatus will be described in detail below with reference to the accompanying drawings. FIG. 1 is a hardware configuration diagram illustrating the configuration of an audio recording selection device 1 according to the embodiment. As shown in FIG. 1, the audio recording / selection device 1 has a computer function including, for example, an operation unit 20, a
音声記録選択装置1は、例えば看護業務に従事する看護師などの利用者の腰などに装着され、利用者の行動時の音声を時刻とともに記録し、利用者の行動に応じて変化する情報などを検知して時刻とともに記憶する。また、音声記録選択装置1は、利用者の行動に応じて変化する情報の検知結果を用いて、利用者が行った作業などの行動を認識(推定)する。なお、実施の形態の音声記録選択装置1は、看護業務を行う看護師が利用者となる場合を例に説明するが、これに限られることなく、例えば1日程度のある程度まとまった時間にわたる業務を終えた後に、1日の業務記録を作成する他の業務を行う者が利用者であってもよい。 The voice recording selection device 1 is worn on the waist of a user such as a nurse engaged in nursing work, records the voice of the user's action along with the time, information that changes according to the user's action, etc. Is detected and stored together with the time. Moreover, the voice recording selection apparatus 1 recognizes (estimates) an action such as a work performed by the user using a detection result of information that changes according to the action of the user. The voice record selection apparatus 1 according to the embodiment will be described by taking an example in which a nurse who performs nursing work is a user. However, the present invention is not limited to this. For example, a work over a certain amount of time of about one day is performed. After completing the above, a person who performs another job for creating a daily job record may be a user.
次に、音声記録選択装置1を構成する各部について詳述する。操作部20は、利用者の操作入力を受け入れる入力部200と、音声記録選択装置1の動作結果などを表示する表示部202とを有する。操作部20は、タッチパネルなどにより、入力部200と表示部202とが一体化されていてもよい。
Next, each part which comprises the audio | voice recording selection apparatus 1 is explained in full detail. The operation unit 20 includes an
マイク21は、例えば音声記録選択装置1の機能(又は電源)がオンにされると、音声等を受入れる。なお、マイク21は、受入れた音声をデジタルデータに変換する機能なども有しているものとする。また、マイク21は、指向性の強いマイクで構成されてもよいし、環境音の影響を低減させるために音声記録選択装置1の外部に設けられ、利用者の口元などに配置されるように構成されてもよい。
For example, when the function (or power supply) of the voice recording selection device 1 is turned on, the
検知部22は、例えば加速度センサ220及び測位センサ222などを含み、利用者の行動に応じて変化する情報を検知する。加速度センサ220は、例えばMEMS(Micro Electro Mechanical System)により加速度センサの機能を実現されたものであってもよい。加速度センサ220は、利用者の動きに応じて変化する加速度を検出することにより、対象者の動き(加速度)を検知する。例えば、加速度センサ220は、音声記録選択装置1の機能(又は電源)がオンにされると、加速度を連続的に検知する。
The
測位センサ222は、例えばGPS(Global Positioning System;全地球測位システム)機能により利用者の位置を検知する。ただし、測位センサ222の機能は、後述するWi−Fi(登録商標)のアクセスポイント又はBluetooth(登録商標)機器などが発信する機器識別情報を含んだビーコン情報を利用して代替えされてもよい。また、測位センサ222の機能は、屋内に設置された機器からGPSの測位情報に相当する信号を発することにより測位を可能にするIMES(Indoor MEssaging System)を利用して構成されてもよい。また、測位センサ222の機能は、携帯電話の通信網を用いて基地局の位置情報を利用することにより実現されてもよい。
The
また、検知部22は、利用者の行動に応じて変化する利用者の脈拍を検知する脈拍検知部を備えていてもよい。さらに、検知部22は、利用者の行動に影響を与える環境温度を検知する温度検知部を備えていてもよい。つまり、検知部22は、利用者の行動に応じて変化する他の情報、及び利用者の行動に影響を与える他の情報をより多く検知し、利用者の行動(作業など)の認識の精度を向上可能にするように構成されてもよい。なお、検知部22は、機能の全て又は一部が音声記録選択装置1の外部に設けられ、検知結果を制御部26に対して送信するように構成されてもよい。
Moreover, the
スピーカ23は、入力部200を介して入力される利用者の操作などに応じて、音声などを出力する。なお、スピーカ23は、音声を出力するために必要なデータ変換の機能なども有しているものとする。
The
通信部24は、外部との通信を行う汎用のインターフェイスであり、例えば有線通信、長距離無線通信及び近接無線通信のいずれに対しても接続可能に構成されている。具体的には、通信部24は、Wi−Fi(登録商標)により相互接続性が保証されている複数のアクセスポイントを有する無線LAN(Local Area Network)に接続可能にされている。また、通信部24は、携帯電話網、Bluetooth(登録商標)、RFID(Radio Frequency IDentification)、USB(Universal Serial Bus)及び有線LANなどを利用して通信を行うように構成されている。
The
記憶部25は、図示しないROM(Read Only Memory)、RAM(Random Access Memory)及びフラッシュメモリ(Flash memory)などを有する。そして、記憶部25は、音声記録選択装置1が実行するプログラムや、音声記録選択装置1がプログラムを実行する場合に使用するデータ(後述する対応モデル34及び対応辞書36)などを記憶する。また、記憶部25は、マイク21が受入れた音声、加速度センサ220が検出した加速度のデータ、測位センサ222が検出した位置情報(又はアクセスポイント情報等)などもそれぞれ時刻を示す情報(時刻データ)とともに記憶する。また、音声記録選択装置1には、記憶部25との間でプログラム及びデータを送受可能にされたメモリカードなどの記憶媒体250が着脱自在に設けられている。
The
制御部26は、例えばCPU260を含み、音声記録選択装置1を構成する各部を制御する。
The
次に、音声記録選択装置1が有する機能について説明する。図2は、実施形態にかかる音声記録選択装置1が有する機能の概要を例示する機能ブロック図である。図2に示すように、音声記録選択装置1は、音声受入部30、音声記録部31、音声認識部32、情報検知部33、対応モデル34、作業認識部35、対応辞書36、重要度判定部37及び出力部38を有する。
Next, functions of the audio recording selection device 1 will be described. FIG. 2 is a functional block diagram illustrating an overview of the functions of the audio recording selection device 1 according to the embodiment. As shown in FIG. 2, the voice recording selection apparatus 1 includes a
音声受入部30は、マイク21(図1)などにより構成され、音声記録選択装置1の機能(又は電源)がオンにされると、音声を受入れて音声記録部31及び音声認識部32に対して出力する。
The
音声記録部31は、制御部26及び記憶部25などにより構成され、音声受入部30から受入れた音声を時刻とともに記録(記憶)する。図3は、音声記録部31が行う処理例を示すグラフである。図3に示すように、音声記録部31は、例えば16ビットの整数値で表現されるPCM(Pulse Code Modulation;パルス符号変調)データの音声データを音声受入部30から受入れる。音声記録部31は、音声受入部30から受入れた音声データの全て、又は有用な音声データだけを記憶する。
The
本実施形態においては、音声記録部31は、図3に示すように、受入れる音声データ(音声波形)の大きさに対して閾値を設け、音声データの大きさが閾値未満である場合は環境音などの有用でないデータ又は無音であるとして、利用者が音声を発していないとみなす。つまり、音声記録部31は、大きさが閾値以上である音声データのみを利用者の音声データとする。
In the present embodiment, as shown in FIG. 3, the
このように、音声記録部31は、音声受入部30から受入れた音声データを無音期間と有用な連続音声期間とに区別し、有用な連続音声期間ごとに分割された音声データを時刻データとともに記録する。つまり、音声記録部31が記録する音声データには、連続音声期間の開始時刻と終了時刻も含まれる。なお、音声期間の検出方法は、短時間パワーを用いて、利用者の音声データを検出してもよく、限定されない。
As described above, the
音声認識部32は、制御部26及び記憶部25などにより構成され、音声受入部30から受入れた音声データを認識してテキスト(文字列)に変換し、音声が発せられた時刻を示す情報を対応付けた文字列を重要度判定部37に対して出力する。音声認識部32は、例えばLVCSR(Large-Vocabulary Continuous Speech Recognition;大語彙連続音声認識)エンジンを含む。また、音声認識部32は、利用者の業務に特化した単語辞書、音響モデル及び言語モデルを有していてもよい。
The
情報検知部33は、例えば加速度センサ220を含む加速度検知部330、及び測位センサ222を含む位置検知部332を有し、利用者の加速度及び位置を検知して、作業認識部35に対して出力する。また、情報検知部33は、利用者の脈拍を検知する脈拍検知部334、及び利用者が位置する環境の温度を検知する温度検知部336など他の情報も検知して、作業認識部35に対して出力するように構成されてもよい。利用者の脈拍は、利用者が急いで作業を行った場合に変化することが考えられるため、利用者の作業を認識する場合に利用可能である。また、利用者が看護師である場合、看護師が位置する環境の温度は、患者の健康状態の変化に応じて生じる看護師の作業を認識する場合などに利用可能である。
The
対応モデル34は、利用者が行った特定の作業を作業認識部35が情報検知部33の検知結果を用いて認識するために使用するモデルであり、例えば記憶部25に記憶されている。以下、作業認識部35が加速度検知部330及び位置検知部332の検知結果を用いて利用者が行った特定の作業を認識する場合を例に説明する。
The correspondence model 34 is a model used by the
まず、利用者の行動の区分について説明する。図4は、看護師の行動の区分を例示する図表である。図4に示すように、看護師の行動は、例えば業務、作業及び動作に区分される。看護師の行動には、例えば患者の回診業務及び看護業務などの複数の業務が定められているものとする。また、作業は、業務中に発生する小さな仕事を指すものとする。また、動作は、作業中に発生する「姿勢変更」、「手を動かす」及び「手を止める」などの利用者の具体的な動きを指すものとする。つまり、図4に例示するように、利用者の行動は、業務(「患者の回診」)が複数の作業(「体の向き変更」、「衣服をはがす」など)により構成され、作業が複数の動作(「姿勢変更」、「手を動かす」、「解く」など)により構成されるという階層構造で表されるものとする。作業は複数の動作から認識され、業務は複数の作業から認識される。 First, user behavior categories will be described. FIG. 4 is a chart illustrating an example of nurse behavior classification. As shown in FIG. 4, the nurse's actions are classified into, for example, work, work, and action. It is assumed that the nurse's behavior includes a plurality of tasks such as a patient round-up task and a nursing task. Further, the work refers to a small work that occurs during work. In addition, the movement indicates a specific movement of the user such as “posture change”, “moving hand”, and “stopping hand” that occurs during the work. In other words, as illustrated in FIG. 4, the user's behavior is composed of a plurality of operations (“change of body orientation”, “peeling clothes”, etc.) for work (“patient round-up”), and a plurality of operations. It is assumed that it is represented by a hierarchical structure composed of the following operations (“posture change”, “move the hand”, “solve”, etc.). Work is recognized from a plurality of operations, and work is recognized from a plurality of operations.
看護業務においては、患者の診察を行う場合に、看護師は両手を使って患者の体を起こすという作業が発生することがある。この場合、看護師は、看護業務の業務記録を作成するために必要となる情報を紙に記載することが困難である。具体的には、看護師は、両手を使っている場合には、患者の傷の大きさや状態などの情報を紙に記載するために、筆記具を用いることは困難である。そこで、看護師は、情報を紙に記載することに代えて、音声記録選択装置1に音声を記録する。 In nursing work, when a patient is examined, the nurse sometimes raises the patient's body using both hands. In this case, it is difficult for the nurse to write on the paper the information necessary for creating a work record of the nursing work. Specifically, when using both hands, it is difficult for a nurse to use a writing instrument to write information such as the size and condition of a patient's wound on paper. Therefore, the nurse records voice in the voice recording selection device 1 instead of writing the information on paper.
図5は、対応モデル34の構成例を示す図表である。図5に示すように、対応モデル34は、例えば動作のパターン50、位置52、時間54の情報が、作業名56の情報に対応付けられている。例えば、対応モデル34は、「かがむ」、「止まる」、「起こす」の順序の動作(動作パターン)が行われ、この動作パターンが「病室」で行われたものであり、且つ動作パターンが行われるのに要した時間が「1分」以内であった場合、利用者である看護師の作業は「患者の体を起こす」であったと対応付けるモデルである。また、対応モデル34は、動作の繰り返しや、一定時間内の動作の発生比率などによっても特定の作業が対応付けられるように構成されている。なお、利用者の行動は、対応モデル34によって特定の作業に対応付けられると、作業名56に示された作業名のいずれかも定められる。
FIG. 5 is a chart showing a configuration example of the correspondence model 34. As shown in FIG. 5, in the correspondence model 34, for example, information on the
作業認識部35(図2)は、制御部26などにより構成され、加速度検知部330が検知した時刻が対応付けられた加速度データを受入れて、まず利用者の時刻を対応付けられた動作を認識する。次に、作業認識部35は、認識した動作と、位置検知部332が検知した利用者の時刻を対応付けられた位置データと、対応モデル34とを用いて利用者の時刻を対応付けられた作業を認識する。つまり、作業認識部35は、動作及び作業それぞれの開始時刻及び終了時刻も認識する。
The work recognition unit 35 (FIG. 2) is configured by the
例えば、作業認識部35は、図5に示された「患者の体を起こす」という作業を認識する場合、まず、「かがむ」、「止まる」、「起こす」という動作を認識する。ここで、作業認識部35は、「かがむ」の動作に対応する加速度データの開始時刻が時刻tsである場合、「かがむ」の動作の開始時刻を時刻tsとする。
For example, when recognizing the work of “raising the patient's body” shown in FIG. 5, the
作業認識部35は、「かがむ」の動作に続いて、「止まる」、「起こす」の動作を認識し、「起こす」の動作に対応する加速度データの終了時刻が時刻teである場合、「起こす」の動作の終了時刻を時刻teとする。
The
そして、作業認識部35は、「かがむ」、「止まる」、「起こす」の一連の動作を「患者の体を起こす」の作業と認識すると、「患者の体を起こす」の作業の開始時刻を時刻tsとし、作業の終了時刻を時刻teとする。
Then, when the
対応辞書36(図2)は、作業認識部35が認識した特定の作業において、音声認識部32が認識した音声データの文字列としての重要度を重要度判定部37が判定するために使用する辞書であり、例えば記憶部25に記憶されている。
The correspondence dictionary 36 (FIG. 2) is used by the importance level determination unit 37 to determine the importance level of the voice data recognized by the
図6は、対応辞書36の構成例を示す図表である。対応辞書36は、特定の作業において重要な文字列(例えばキーワード)及び文字列の属性の少なくともいずれかが、特定の作業に対応付けられている。図6において、「<数字>」のように、「<」と「>」で囲まれた文字列は、その文字列が示すクラスに属するキーワード(属性が同じキーワード)であれば任意の文字列が対応付けられることを表す。
FIG. 6 is a chart showing a configuration example of the
例えば、「<数字>」が示す部分には数字を示す任意の文字列が対応付けられる。つまり、対応辞書36は、「傷の大きさを測る」という作業に認識された期間に、「10センチ」という認識された文字列が対応付けられると(「10センチ」という音声が発せられていると)、「10センチ」という文字列は重要度が高い文字列であると判定されるように構成されている。また、作業の種類によって音声(文字列)の重要度が異なるため、対応辞書36は、同一の文字列であっても対応付けられる作業によって重要度が異なる判定を可能にしている。
For example, an arbitrary character string indicating a number is associated with the portion indicated by “<number>”. In other words, the
なお、図6においてキーワードとして挙げられている文字列は、活用又は変形されても作業に対応付けられるように、活用例又は変形例を合わせて列挙されたり、活用又は変形の定義付けをされてもよい。また、図6においては、対応辞書36は、特定の作業に対して重要度が同レベルである文字列及び文字列の属性の少なくともいずれかが対応付けられているが、特定の作業に対して重要度のレベルが異なる複数のレベルの文字列及び文字列の属性の少なくともいずれかが区別されて対応付けられていてもよい。
Note that the character strings listed as keywords in FIG. 6 are enumerated together with examples of use or modifications, or defined for use or modification so that they can be associated with work even if they are used or modified. Also good. In FIG. 6, the
重要度判定部37(図2)は、制御部26などにより構成される。重要度判定部37は、作業認識部35が認識した特定の作業(作業の期間)において、音声認識部32が認識した音声データの文字列としての重要度を、対応辞書36を用いて判定し、判定結果を出力部38に対して出力する。例えば、重要度判定部37は、作業認識部35が「傷の大きさを測る」という作業に認識した期間に対し、音声認識部32が「10センチ」という文字列を認識した場合、対応辞書36に従って「10センチ」という文字列は重要度が高いと判定する。
The importance level determination unit 37 (FIG. 2) includes the
一方、重要度判定部37は、音声認識部32が「10センチ」という文字列を認識しても、作業認識部35が認識した作業が「傷の大きさを測る」という作業でなければ、「10センチ」という文字列の重要度が高いとは判定しない。
On the other hand, even if the
出力部38は、重要度判定部37が判定した結果を受入れて出力する。ここで、出力部38は、図1に示した表示部202であってもよい。つまり、出力部38は、重要度判定部37が判定した結果を表示することによって出力してもよい。
The
また、出力部38は、通信部24(図1)であってもよい。つまり、出力部38は、重要度判定部37が判定した結果を例えば外部のPC(Personal Computer)などに対して送信することによって出力してもよい。そして、利用者は、外部のPCを用いて重要度判定部37の判定結果を表示させたり、加工するようにしてもよい。
The
(第1の表示例)
図7は、重要度判定部37が判定した結果を表示部202が表示した場合の第1の表示例である。図7に示すように、表示部202は、重要度判定部37の判定結果を受けると、認識(推定)した作業を時系列に表示する。また、表示部202は、時系列に表示した作業に対応する文字列を、作業と文字列とが対応するように配置し、例えば音声が発せられた順に上から下へ並べて表示する。
(First display example)
FIG. 7 is a first display example when the
また、表示部202は、特定の作業ごとに、文字列を重要度に応じて区別して表示する。例えば、表示部202は、「304号室_傷の大きさを測る」(作業A)において、重要度の高い文字列102(「赤くなってる」)及び文字列104(「10センチ」)を、文字列100及び文字列106に対して強調して表示する。表示部202は、文字列の色を変えたり、太さや大きさを変えることにより、表示の強調を行う。また、表示部202は、「304号室_薬を塗る」(作業B)において、重要度の高い文字列110(「○○(薬の名前)」)及び文字列114(「ガーゼ貼った」)を、文字列108、文字列112及び文字列116に対して強調して表示する。
Further, the
ここで、作業Aにおける文字列102と、作業Bにおける文字列108とは、いずれも文字列の属性が<色み>であり、赤色を示す文字列となっている。しかし、作業Aにおいて赤色を示す文字列の重要度が高くても、作業Bにおいて赤色を示す文字列の重要度が高くないため、表示部202は、文字列102と文字列108とに対して異なる表示をしている。
Here, both the
なお、音声記録選択装置1(図2)は、図1によってハードウェア構成を例示したように、利用者の操作入力を受け入れる機能を備えた操作受入部40、及び音声などを出力する機能を備えた音声出力部41を有していてもよい。
Note that the voice recording selection device 1 (FIG. 2) has a function of outputting an
また、表示部202は、複数の作業の中から操作受入部40を介して選択された1つの作業に対応する文字列だけを表示するなど、操作受入部40を介して入力される操作に応じて任意の選択された表示を行うように構成されてもよい。
In addition, the
(第2の表示例)
図8は、重要度判定部37が判定した結果を表示部202が表示した場合の第2の表示例である。なお、図8に示した第2の表示例は、通信部24(図1)を介して外部のPCなどに表示されるものであってもよい。また、第2の表示例に示された操作入力に伴う表示等も、外部のPCなどの操作入力に応じて表示等される(表示以外の動作も含む)ものであってもよい。
(Second display example)
FIG. 8 is a second display example when the
図8に示すように、表示部202は、重要度判定部37の判定結果を受けると、音声データの連続音声期間(図3参照)、認識(推定)した作業及び業務を時系列に対応付けて表示する。なお、図8において、図7に示した作業と同一の作業には、同一の符号が付してある。
As shown in FIG. 8, when the
図8(a)に示すように、例えば、作業Aの期間には連続音声期間d1、d2が対応付けられ、作業Bの期間には連続音声期間d3〜d6が対応付けられている。表示部202は、作業Aの開始時刻に開始時刻表示70を表示し、作業Aの終了時刻に終了時刻表示72を表示する。また、表示部202は、作業Bの開始時刻に開始時刻表示74を表示し、作業Bの終了時刻に終了時刻表示76を表示する。開始時刻表示70、74及び終了時刻表示72、76は、例えば操作受入部40を介して入力される操作に応じてポインタ60によりスライドさせられて、それぞれの時刻を前後に変更可能にされている。つまり、音声記録選択装置1は、利用者が操作受入部40を介して開始時刻表示70、74及び終了時刻表示72、76を移動させることにより、作業A、Bの開始時刻及び終了時刻の表示及び時刻データを変更可能にされている。
As shown in FIG. 8A, for example, the continuous sound periods d1 and d2 are associated with the period of the work A, and the continuous sound periods d3 to d6 are associated with the period of the work B. The
例えば、作業Bの期間においては、連続音声期間d3の開始時刻が作業Bの開始時刻とされており、連続音声期間d6の終了時刻が作業Bの終了時刻とされている。図8(a)に示すように、終了時刻表示76が表示部202上でスライドさせられると、音声記録選択装置1は、作業Bの終了時刻を変更する処理を行う。
For example, in the period of the work B, the start time of the continuous sound period d3 is set as the start time of the work B, and the end time of the continuous sound period d6 is set as the end time of the work B. As shown in FIG. 8A, when the
また、作業Aの終了時刻は、連続音声期間d2の終了時刻と一致していない。つまり、図8(a)は、終了時刻表示72が移動させられた結果、連続音声期間の終了時刻にかかわらず、作業Aの終了時刻が変更された状態を示している。
Further, the end time of the work A does not coincide with the end time of the continuous sound period d2. That is, FIG. 8A shows a state in which the end time of the work A is changed as a result of the
図8(b)は、終了時刻表示76が表示部202上でスライドさせられた場合の音声記録選択装置1の動作を例示している。例えば、終了時刻表示76が時刻を前倒しする方向にスライドさせられ、連続音声期間d6の表示に重ねられると、音声記録選択装置1は、音声記録部31が記録している音声データから連続音声期間d6に発せられた音声データを選択する。そして、音声記録選択装置1は、連続音声期間d6に発せられた音声データを用いて、音声出力部41による音声出力を行う。
FIG. 8B illustrates the operation of the audio recording selection device 1 when the
また、音声記録選択装置1は、終了時刻表示76が時刻を前倒しする方向にスライドさせられ、作業Bの表示に重ねられると、音声記録部31が記録している音声データから作業Aの期間に発せられた音声データ(連続音声期間d3〜d6の音声データ)を選択するように構成されてもよい。そして、音声記録選択装置1は、連続音声期間d3〜d6に発せられた音声データを用いて、音声出力部41による音声出力を行う。
In addition, when the
音声記録選択装置1は、作業の開始時刻又は終了時刻が変更された場合、開始時刻又は終了時刻が変更された作業に対して文字列の重要度の判定を改めて行うように構成されてもよい。また、表示部202は、第2の表示例が表示する情報に加えて、第1の表示例で表示した文字列を表示するように構成されてもよい。
The voice recording / selecting device 1 may be configured such that when the start time or the end time of the work is changed, the importance of the character string is determined again for the work whose start time or the end time is changed. . The
次に、音声記録選択装置1の動作について説明する。図9は、実施形態にかかる音声記録選択装置1の動作を例示するフローチャートである。音声記録選択装置1は、例えば電源がオンにされると、音声受入部30が音声の受入れを開始し、情報検知部33が検知を開始する。
Next, the operation of the audio recording selection device 1 will be described. FIG. 9 is a flowchart illustrating the operation of the audio recording selection device 1 according to the embodiment. In the audio recording / selecting device 1, for example, when the power is turned on, the
図9に示すように、ステップ100(S100)において、音声認識部32は、音声受入部30が受入れた音声を認識し、時刻が対応付けられた文字列(テキスト)に変換する。
As shown in FIG. 9, in step 100 (S100), the
ステップ102(S102)において、作業認識部35は、情報検知部33が検知した加速度データ及び位置データなどを受入れて、利用者の時刻を対応付けられた作業(作業情報)を認識する。
In step 102 (S102), the
ステップ104(S104)において、重要度判定部37は、作業認識部35が認識した作業(作業の期間)において、音声認識部32が認識した文字列としての重要度を、対応辞書36を用いて判定する。
In step 104 (S104), the importance level determination unit 37 uses the
ステップ106(S106)において、表示部202は、重要度判定部37が判定した結果を受入れ、テキストを重要度に応じて区別して表示する。
In step 106 (S106), the
本実施形態においては、情報検知部33の検知結果を用いて特定の作業を認識し、認識した作業に対して音声認識部32が認識した文字列の重要度を判定する場合を例に説明したが、音声記録選択装置1の動作はこれに限定されない。例えば、音声記録選択装置1は、開始時刻及び終了時刻が定められた特定の作業を示す予定表などのデータ(作業情報)を作業認識部35が読み込み、予定表に示される作業に対して音声認識部32が認識した文字列の重要度を重要度判定部37が判定するように構成されてもよい。また、音声記録選択装置1が音声を記録して文字列の重要度を判定する言語は、日本語に限らず、他の言語であってもよい。
In this embodiment, the case where a specific work is recognized using the detection result of the
以上説明した実施形態によれば、音声を記録していた記録時間と同等の時間をかけることなく、音声から変換された文字列を特定の作業における重要度に応じて区別して出力することができる。 According to the embodiment described above, the character string converted from the voice can be distinguished and output according to the importance in the specific work without taking the time equivalent to the recording time for recording the voice. .
また、本発明の実施形態を複数の組み合わせによって説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Moreover, although embodiment of this invention was described by the several combination, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 音声記録選択装置
20 操作部
200 入力部
202 表示部
21 マイク
22 検知部
220 加速度センサ
222 測位センサ
23 スピーカ
24 通信部
25 記憶部
26 制御部
30 音声受入部
31 音声記録部
32 音声認識部
33 情報検知部
330 加速度検知部
332 位置検知部
334 脈拍検知部
336 温度検知部
34 対応モデル
35 作業認識部
36 対応辞書
37 重要度判定部
38 出力部
40 操作受入部
41 音声出力部
DESCRIPTION OF SYMBOLS 1 Voice recording selection apparatus 20
Claims (9)
前記音声を認識して文字列に変換する音声認識部と、
開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識する作業認識部と、
前記特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、前記特定の作業における前記文字列及び前記属性の重要度と、を前記特定の作業に対応付けた対応辞書を記憶する記憶部と、
前記作業情報及び前記対応辞書に基づいて、前記特定の作業の開示時刻から終了時刻までの期間に受入れられた前記音声から変換された文字列の重要度を判定する重要度判定部と、
前記期間に受入れられた前記音声から変換された文字列を、前記重要度に応じて区別して出力する出力部と、
を有する音声記録選択装置。 An audio receiving unit that receives audio from the user;
A voice recognition unit that recognizes the voice and converts it into a character string;
A work recognizing unit for recognizing work information indicating a specific work having a start time and an end time;
A storage for storing a correspondence dictionary in which at least one of a character string and a character string attribute important in the specific work and an importance level of the character string and the attribute in the specific work are associated with the specific work. And
Based on the work information and the correspondence dictionary, an importance level determination unit that determines the importance level of the character string converted from the speech accepted in the period from the disclosure time to the end time of the specific work,
An output unit that outputs a character string converted from the speech accepted in the period, according to the importance, and
An audio recording selection device having
請求項1に記載の音声記録選択装置。 The voice recording selection device according to claim 1, wherein the work information indicates a plurality of specific works configured by a plurality of operations, and the importance of the attribute varies depending on the type of the work.
前記記憶部は、
前記利用者の加速度により特定される動作の組合せ及び前記利用者の位置の少なくともいずれかと、前記特定の作業との対応を示す対応モデルをさらに記憶し、
前記作業認識部は、
前記検知部が検知した前記利用者の加速度により特定された動作の組合せ及び前記検知部が検知した前記利用者の位置の少なくともいずれか並びに前記対応モデルに応じて前記作業情報を認識する
請求項1に記載の音声記録選択装置。 A detector that detects at least one of a user's acceleration and the user's position;
The storage unit
Further storing a correspondence model indicating a correspondence between the specific task and at least one of a combination of movements specified by the user's acceleration and the user's position;
The work recognition unit
2. The work information is recognized according to at least one of a combination of movements identified by the user's acceleration detected by the detection unit, the position of the user detected by the detection unit, and the corresponding model. The audio recording selection device according to 1.
前記作業情報に応じて前記期間を表示する出力、及び前記期間に前記音声受入部が受入れた音声から変換された文字列を前記重要度に応じて区別して表示する出力を行い、
前記出力部が表示した前記期間を特定する入力を受入れる操作受入部と、
前記音声受入部が受入れた音声を記録する音声記録部と、
音声を出力する音声出力部と、
前記操作受入部が受入れた入力により特定された前記期間に前記音声記録部が記録した音声を前記音声出力部が出力するよう制御する制御部と、
をさらに有する
請求項3に記載の音声記録選択装置。 The output unit is
The output for displaying the period according to the work information, and the output for distinguishing and displaying the character string converted from the voice received by the voice receiving unit during the period, according to the importance,
An operation receiving unit for receiving an input specifying the period displayed by the output unit;
An audio recording unit for recording the audio received by the audio receiving unit;
An audio output unit for outputting audio;
A control unit for controlling the audio output unit to output the audio recorded by the audio recording unit during the period specified by the input received by the operation receiving unit;
The voice recording / selecting device according to claim 3.
前記利用者の脈拍及び前記利用者が位置する環境の温度の少なくともいずれかをさらに検知し、
前記対応モデルは、
前記検知部が検知する前記利用者の脈拍及び前記利用者が位置する環境の温度の少なくともいずれかと、前記特定の作業との対応を示す情報をさらに含み、
前記作業認識部は、
前記検知部が検知した前記利用者の加速度により特定された動作の組合せ、前記利用者の位置、前記利用者の脈拍及び前記利用者が位置する環境の温度の少なくともいずれか並びに前記対応モデルに応じて前記作業情報を認識する
請求項3に記載の音声記録選択装置。 The detector is
Further detecting at least one of the pulse of the user and the temperature of the environment where the user is located,
The corresponding model is
And further includes information indicating a correspondence between the specific operation and at least one of the pulse of the user detected by the detection unit and the temperature of the environment where the user is located,
The work recognition unit
According to the combination of movements identified by the user's acceleration detected by the detection unit, the position of the user, the pulse of the user, the temperature of the environment where the user is located, and the corresponding model The voice recording selection device according to claim 3, wherein the work information is recognized.
前記出力部が表示した前記期間を変更する入力をさらに受入れ、
前記制御部は、
前記操作受入部が受入れた前記期間を変更する入力に応じて、前記作業情報を変更するようさらに制御する
請求項4に記載の音声記録選択装置。 The operation receiving unit is
Further accepting an input to change the period displayed by the output unit;
The controller is
The voice recording selection device according to claim 4, further controlling to change the work information in response to an input to change the period received by the operation receiving unit.
前記期間内に前記音声記録部が連続する音声を記録した連続音声期間をさらに表示する出力を行い、
前記操作受入部は、
前記連続音声期間を特定する入力をさらに受入れ、
前記制御部は、
前記操作受入部が受入れた入力により特定された前記連続音声期間に前記音声記録部が記録した音声を前記音声出力部が出力するようさらに制御する
請求項6に記載の音声記録選択装置。 The output unit is
Performing an output to further display a continuous audio period in which the audio recording unit records continuous audio within the period;
The operation receiving unit is
Further accepting input specifying the continuous speech period;
The controller is
The voice recording selection device according to claim 6, further controlling the voice output unit to output the voice recorded by the voice recording unit during the continuous voice period specified by the input received by the operation receiving unit.
前記音声記録選択装置は、特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、前記特定の作業における前記文字列及び前記属性の重要度と、を前記特定の作業に対応付けた対応辞書を記憶する記憶部を備え、
音声受入部が受入れた利用者からの音声を認識して文字列に変換する工程と、
開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識する工程と、
前記作業情報及び前記対応辞書に基づいて、前記特定の作業の開示時刻から終了時刻までの期間に受入れられた前記音声から変換された文字列の重要度を判定する工程と、
前記期間に受入れられた前記音声から変換された文字列を、前記重要度に応じて区別して出力する工程と、
を含む音声記録選択方法。 An audio recording selection method for selecting audio recording by an audio recording selection device ,
The voice recording selection device associates at least one of a character string and a character string attribute important in a specific work, and the importance of the character string and the attribute in the specific work with the specific work. A storage unit for storing a corresponding dictionary is provided.
A step of recognizing a voice from a user received by the voice receiving unit and converting the voice into a character string;
Recognizing work information indicating a specific work with a start time and an end time; and
Determining the importance of the character string converted from the speech accepted in the period from the disclosure time to the end time of the specific work based on the work information and the correspondence dictionary;
A step of distinguishing and outputting a character string converted from the speech accepted in the period according to the importance;
Voice recording selection method including.
開始時刻及び終了時刻が定められた特定の作業を示す作業情報を認識するステップと、 前記特定の作業において重要な文字列及び文字列の属性の少なくともいずれかと、前記特定の作業における前記文字列及び前記属性の重要度と、を前記特定の作業に対応付けた対応辞書、及び前記作業情報に基づいて、前記特定の作業の開示時刻から終了時刻までの期間に受入れられた前記音声から変換された文字列の重要度を判定するステップと、
前記期間に受入れられた前記音声から変換された文字列を、前記重要度に応じて区別して出力するステップと、
をコンピュータに実行させるための音声記録選択プログラム。 A step of recognizing a voice from a user received by the voice receiving unit and converting the voice into a character string;
Recognizing work information indicating a specific work for which a start time and an end time are defined; at least one of a character string and a character string attribute important in the specific work; the character string in the specific work; and Based on the correspondence dictionary in which the degree of importance of the attribute is associated with the specific work, and the work information, the voice is converted from the speech accepted in the period from the disclosure time to the end time of the specific work. Determining the importance of the string;
A character string converted from the speech accepted in the period, and output according to the importance,
Audio recording selection program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012038955A JP5426706B2 (en) | 2012-02-24 | 2012-02-24 | Audio recording selection device, audio recording selection method, and audio recording selection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012038955A JP5426706B2 (en) | 2012-02-24 | 2012-02-24 | Audio recording selection device, audio recording selection method, and audio recording selection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013174718A JP2013174718A (en) | 2013-09-05 |
JP5426706B2 true JP5426706B2 (en) | 2014-02-26 |
Family
ID=49267674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012038955A Active JP5426706B2 (en) | 2012-02-24 | 2012-02-24 | Audio recording selection device, audio recording selection method, and audio recording selection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5426706B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6601018B2 (en) * | 2015-06-30 | 2019-11-06 | 富士通株式会社 | Work management program, work management method, and work management system |
JP6436582B2 (en) * | 2016-03-17 | 2018-12-12 | 三菱重工業株式会社 | Work result recording system, work result recording method and program |
JP6250852B1 (en) * | 2017-03-16 | 2017-12-20 | ヤフー株式会社 | Determination program, determination apparatus, and determination method |
JP6560321B2 (en) * | 2017-11-15 | 2019-08-14 | ヤフー株式会社 | Determination program, determination apparatus, and determination method |
JP7154754B2 (en) * | 2017-12-06 | 2022-10-18 | 東芝デジタルソリューションズ株式会社 | Measuring information input support system |
JP2020030468A (en) * | 2018-08-20 | 2020-02-27 | アイホン株式会社 | Nursing service support system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090287488A1 (en) * | 2006-03-24 | 2009-11-19 | Nec Corporation | Text display, text display method, and program |
JP2010256391A (en) * | 2009-04-21 | 2010-11-11 | Takeshi Hanamura | Voice information processing device |
-
2012
- 2012-02-24 JP JP2012038955A patent/JP5426706B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013174718A (en) | 2013-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5426706B2 (en) | Audio recording selection device, audio recording selection method, and audio recording selection program | |
KR102389625B1 (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
EP3709294B1 (en) | Electronic device for providing speech recognition service and method thereof | |
BR112015018905B1 (en) | Voice activation feature operation method, computer readable storage media and electronic device | |
KR20180060328A (en) | Electronic apparatus for processing multi-modal input, method for processing multi-modal input and sever for processing multi-modal input | |
CN103959751A (en) | Automatically adapting user interfaces for hands-free interaction | |
KR102343084B1 (en) | Electronic device and method for executing function of electronic device | |
WO2020244355A1 (en) | Microphone signal-based voice interaction wake-up electronic device, method, and medium | |
JP6083799B2 (en) | Mobile device location determination method, mobile device, mobile device location determination system, program, and information storage medium | |
WO2020244402A1 (en) | Speech interaction wakeup electronic device and method based on microphone signal, and medium | |
WO2020244416A1 (en) | Voice interactive wakeup electronic device and method based on microphone signal, and medium | |
KR102628211B1 (en) | Electronic apparatus and thereof control method | |
EP3738117B1 (en) | System for processing user utterance and controlling method thereof | |
TW200820217A (en) | Mobile device with acoustically-driven text input and method thereof | |
WO2020244411A1 (en) | Microphone signal-based voice interaction wakeup electronic device and method, and medium | |
CN105580071A (en) | Method and apparatus for training a voice recognition model database | |
WO2016183961A1 (en) | Method, system and device for switching interface of smart device, and nonvolatile computer storage medium | |
JP2018025855A (en) | Information processing server, information processing device, information processing system, information processing method, and program | |
CN106874057A (en) | A kind of information input method and its equipment | |
JP6125445B2 (en) | Life log recording system and program thereof | |
CN110830368A (en) | Instant messaging message sending method and electronic equipment | |
WO2016206646A1 (en) | Method and system for urging machine device to generate action | |
KR20180108321A (en) | Electronic device for performing an operation for an user input after parital landing | |
JP5988077B2 (en) | Utterance section detection apparatus and computer program for detecting an utterance section | |
EP4310636A1 (en) | Gesture interaction method, system, and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130820 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131128 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5426706 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |