JP5834449B2 - 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 - Google Patents
発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 Download PDFInfo
- Publication number
- JP5834449B2 JP5834449B2 JP2011081133A JP2011081133A JP5834449B2 JP 5834449 B2 JP5834449 B2 JP 5834449B2 JP 2011081133 A JP2011081133 A JP 2011081133A JP 2011081133 A JP2011081133 A JP 2011081133A JP 5834449 B2 JP5834449 B2 JP 5834449B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- state detection
- section
- data
- reply
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 408
- 238000000034 method Methods 0.000 claims description 139
- 230000008569 process Effects 0.000 claims description 119
- 238000004364 calculation method Methods 0.000 claims description 113
- 238000012545 processing Methods 0.000 claims description 90
- 238000001228 spectrum Methods 0.000 claims description 39
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 82
- 230000005856 abnormality Effects 0.000 description 63
- 230000002354 daily effect Effects 0.000 description 50
- 230000006870 function Effects 0.000 description 17
- 230000004044 response Effects 0.000 description 15
- 230000003203 everyday effect Effects 0.000 description 9
- 230000035945 sensitivity Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008451 emotion Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000010183 spectrum analysis Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 240000004270 Colocasia esculenta var. antiquorum Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
[1−1.機能ブロック]
図1は、この発明の本実施形態による発話状態検出装置1の機能ブロックの一例を示す図である。発話状態検出装置1は、発話データ取得部11と、周波数成分抽出部12と、変動度合い算出部13と、統計量算出部14と、発話状態検出パラメータ作成部15と、発話状態検出部16とを少なくとも備えている。
図2は、この発明の一実施形態による発話状態検出装置1を、CPUを有するコンピュータ装置を用いて実現したハードウェア構成の例を示す図である。なお、CPU22に代えて、他のプロセッサ(例えば、MPU等。)やIC(例えば、ASIC等。)を有する装置を用いてもよい。また、携帯電話またはスマートフォンのような電子機器等を用いて、上記発話状態検出装置1を構成してもよい。
図3は、発話状態検出プログラム24aにおける、(1)不特定発話者が発話することにより発生した発話データから発話状態検出パラメータを作成する処理(発話状態検出パラメータの作成処理)のオペレーションチャートの一例を示す図である。なお、発話状態検出パラメータの作成処理は、(2)作成した発話状態検出パラメータを用いて、特定発話者が発話することにより発生した発話データに基づいて特定発話者の発話状態を検出する処理(特定発話者の発話状態検出処理)を実行する前において、少なくとも1回は実行されることが好ましい。また、発話状態検出パラメータの作成処理を行う装置は、本発話状態検出装置1以外の装置であってもよい。
例えば、変動度合いを、高域周波数成分の残差パワースペクトルの分散に基づいて算出するようにしてもよい。
発話状態検出パラメータの作成処理を終えると、本発話状態検出装置1は、特定発話者の発話状態検出処理をCPU22において実行する。上述の通り、発話状態検出パラメータ(t1およびt2)の作成処理は、特定発話者の発話状態検出処理の事前において、少なくとも1回行われていればよい。また、発話状態検出装置1は、発話状態検出パラメータ(t1およびt2)を取得可能であれば、発話状態検出パラメータの作成処理を実行しなくても、特定発話者の発話状態検出処理を実行することができる。
以上に説明したとおり、上記の発話状態検出装置1は、不特定発話者が既知の発話状態で発話することにより発生した発話データから得られた統計量と、特定発話者が発話することにより発生した発話データから得られた統計量とを、不特定発話者が既知の発話状態で発話することにより発生した発話データから得られた統計量に基づいて決定した発話状態検出パラメータ(t1およびt2)を用いて比較することにより、特定発話者の発話状態を検出する。これにより、予め特定話者毎に基準情報を作成することなく、発話状態の検出を可能とすることができる。
上記の発話状態検出装置1における発話状態検出パラメータ算出処理(Op308)においては、一例として、日常状態である発話データから算出した全統計量についての第3四分位数(統計量を大きい順にソートして、上位25%の最も小さい値)を求めることによって発話状態検出パラメータt1を決定するとともに、発話状態検出パラメータt1を超えている統計量要素の、全統計量要素に対する比率(要素比率)を、発話状態検出パラメータt2として決定した。
本実施形態にかかる発話状態検出装置1も、第1の実施形態と同様に、コンピュータ装置、携帯電話またはスマートフォン等の電子機器を用いて構成可能である。また、本実施形態にかかる発話状態検出装置1の機能ブロックおよびハードウェア構成の一例は、図1および図2を用いて説明した第1の実施形態と基本的に同様である。
本実施形態の合成音声修正装置1における発話状態検出プログラム24aの、発話状態検出パラメータの作成処理の処理内容は、図3〜図6を用いて説明した第1の実施形態と基本的に同様である。しかしながら、本実施形態では、Op308において説明した発話状態検出パラメータ算出処理の処理内容が異なる。
本実施形態における特定発話者の発話状態検出処理は、第1の実施形態と同様である。すなわち、CPU22は、発話状態検出パラメータ(t1およびt2)を取得して、特定発話者の発話状態検出処理を実行する。なお、上述の通り、発話状態検出パラメータ(t1およびt2)の作成処理は、特定発話者の発話状態検出処理の事前において、少なくとも1回行われていればよい。また、発話状態検出装置1は、発話状態検出パラメータ(t1およびt2)を取得可能であれば、発話状態検出パラメータの作成処理を実行しなくても、特定発話者の発話状態検出処理を実行することができる。
上記の発話状態検出装置1において、前記発話データにかかるSN比(SNR:signal-noise ratio)を算出するSN比算出部をさらに備え、前記発話状態検出部は、統計量を算出した前記所定期間に対応するSN比が閾値よりも大きくなる場合に発話状態を検出するようにしてもよい。このように、SN比を考慮して発話状態を評価することにより、ノイズが比較的大きい環境における発話を排除して検出処理を行うことができ、検出精度の低下を防止することができる。
本実施形態にかかる発話状態検出装置1も、第1の実施形態と同様に、コンピュータ装置、携帯電話またはスマートフォン等の電子機器を用いて構成可能である。図10は、本実施形態にかかる発話状態検出装置1の機能ブロックの一例を示す図である。図10においては、図1において示した発話状態検出装置1の機能ブロックに加えて、SN比算出部17をさらに備えている。
本実施形態における発話状態検出パラメータの作成処理は、第1または第2の実施形態と同様である。すなわち、第1の実施形態と同様に、例えば、日常状態である発話データから算出した全統計量についての第3四分位数(統計量を大きい順にソートして、上位25%の最も小さい値)を求めることによって発話状態検出パラメータt1を決定するとともに、発話状態検出パラメータt1を超えている統計量要素の、全統計量要素に対する比率(要素比率)を、発話状態検出パラメータt2として決定すればよい。また、第2の実施形態と同様に、日常状態である発話データから算出した統計量だけでなく、非日常状態である発話データから算出した統計量も考慮して、発話状態検出パラメータ(t1およびt2)を決定するようにしてもよい。
CPU22は、発話状態検出パラメータ(t1およびt2)を取得して、特定発話者の発話状態検出処理を実行する。なお、上述の通り、発話状態検出パラメータ(t1およびt2)の作成処理は、特定発話者の発話状態検出処理の事前において、少なくとも1回行われていればよい。また、発話状態検出装置1は、発話状態検出パラメータ(t1およびt2)を取得可能であれば、発話状態検出パラメータの作成処理を実行しなくても、特定発話者の発話状態検出処理を実行することができる。
上記においては、1つの発話状態検出装置1において、(1)発話状態検出パラメータの作成処理および(2)特定発話者の発話状態検出処理を実行する例を説明したが、別の装置において算出された発話状態検出パラメータを用いて、特定発話者の発話状態を検出するようにしてもよい。例えば、インターネット等のネットワークを介して発話状態検出パラメータ取得するようにしてもよい。
上述した実施形態では、予め特定話者毎に基準情報を作成することなく、通話などの入力音声データから物理的特徴量と統計量とを算出し、算出した物理的特徴量と統計量とから話者の状態を判定する処理を説明した。しかしながら、例えば、返事ばかりが続き、取得できる音声データが少ない場合には、上述の物理的特徴量と統計量とを算出することが困難であるので、話者の状態を判定することができない。そこで、以下に説明する第5の実施形態では、例えば、返事ばかりが続き、ある話者について取得できる音声データが少なく、話者の状態を判定することが難しい場合でも、音声データのみから話者の状態を判定する処理を説明する。
図13は、第5の実施形態による発話状態検出装置1の機能ブロックの一例を示す図である。第5の実施形態に係る発話状態検出装置1は、音異常判定部10以外に、状態検出部100および総合判定部200を有する点が上述の実施形態とは相違する。なお、音異常判定部10は、図1に示す各機能ブロック11〜16に対応している。
図19は、第5の実施形態による発話状態検出装置1を、コンピュータを用いて実現したハードウェア構成の例を示す図である。第5の実施形態による発話状態検出装置1のハードウェア構成は、上述した実施形態と基本的に同様の構成を有するが、以下に説明する点が上述の実施形態とは異なる。なお、上述した実施形態と同様に、CPU22に代えて、他のプロセッサ(例えば、MPU(Micro Processing Unit)等。)やIC(例えば、ASIC(Application Specific Integrated Circuit)等。)を有する装置を用いてもよい。また、携帯電話またはスマートフォンのような電子機器等を用いて、上記発話状態検出装置1を構成してもよい。
図20は、区間検出プログラム24cによる発話区間検出処理のオペレーションチャートの一例を示す図である。なお、図20に示す処理は、32ミリ秒や24ミリ秒でシフトする発話データのフレームを、1フレームずつ入力して実行される。
図21は、区間検出プログラム24cによる返事区間検出処理のオペレーションチャートの一例を示す図である。なお、図21に示す処理は、32ミリ秒や24ミリ秒でシフトする発話データのフレームを、1フレームずつ入力して実行される。
上述してきたとおり、発話状態検出装置1の状態検出部100は、発話データから発話区間を検出し、返事と推測される短時間の発話区間のみが連続する区間を返事区間として検出する。そして、状態検出部100は、返事モデル記憶部101のデータを参照して、返事区間において利用された単語が、日常時に利用される頻度の高いものであるかどうかを検証する。検証の結果、日常時に利用される頻度の高いもの否かあまり利用されるものでなければ、状態検出部100は、返事区間における返事の当事者(発話状態検出装置1のユーザ)の状態が、非日常のように不安定な状態にあるものと判定する。このようなことから、第5の実施形態によれば、返事ばかりが続いて、取得できる発話データが少なく、上述の第1〜第4の実施形態ではユーザの状態を判定することが難しい場合でも、発話データのみからユーザの状態を判定できる。
また、上述した第5の実施形態では、返事モデル記憶部101のデータを参照して、返事区間において利用された単語が、日常時に利用される頻度の高いものであるかどうかを検証することにより、ユーザの状態を判定する処理について説明した。ところで、上述の第5の実施形態において、例えば、返事区間の長さ、返事区間内の各返事の間隔長、総返事区間の長さ、あるいは通話時間と総返事区間の長さとの比などを用いて、ユーザの状態を判定することもできる。そこで、以下に説明する第6の実施形態では、例えば、返事区間の長さ、返事区間内の各返事の間隔長、総返事区間の長さ、あるいは通話時間と総返事区間の長さとの比を用いて、ユーザの状態を判定する処理を説明する。
第6の実施形態による発話状態検出装置1の機能ブロックは、図13に示す第5の実施形態と基本的に同様の構成を有するが、以下に説明する点が異なる。なお、第6の実施形態による発話状態検出装置1のハードウェア構成は、上述した実施形態5と同様の構成を有する。
総合異常度Rt=通話の異常度合いR*(1+Th*0.1),(0<Th)
あるいは、 =通話の異常度合いR*1.0 ,(0≧Th)…(1)
総合異常度Rt=通話の異常度合いR*(1+Th2*0.1),(0<Th)
あるいは、 =通話の異常度合いR*1.0 ,(0≧Th)…(2)
なお、平均μと標準偏差σの初期値が、それぞれμ´、σ´であるとき、Th2=(H−μ´*2)/σ´とする。
上述してきたとおり、第6の実施形態によれば、返事区間において利用された単語だけでなく、返事区間長、返事の間隔長、総返事区間長および返事時間比などのパラメータに基づいて、ユーザの状態を判定できる。また、第6の実施形態によれば、返事区間において利用された単語の認識処理を実行する必要がないので、第5の実施形態よりも処理の負荷を抑えつつ、ユーザの状態を判定できる。
例えば、いわゆる「振り込め詐欺」などの詐欺にユーザを誘引しようとする対話が行われている場合、ユーザは抑圧された心理状態に陥りやすい。そこで、上述の実施形態を用いて、ユーザが、抑圧された心理状態である非日常状態にあると判定できた場合には、ユーザを詐欺に誘引しようとする通話を検出できる。しかしながら、詐欺に誘引しようとする通話以外でも、話者が抑圧された心理状態となることはあり得るので、上述の実施形態では、詐欺に誘引しようとする通話以外も詐欺行為に関わる通話として検出してしまう恐れがある。そこで、以下の実施形態7では、詐欺に誘引しようとする通話を精度良く検出する処理を説明する。
図24は、第7の実施形態による発話状態検出装置1の機能ブロックの一例を示す図である。第7の実施形態に係る発話状態検出装置1は、状態検出部100に、電話帳記憶部102、時間帯別危険度記憶部103、危険度算出部113を有する点が上述の実施形態とは相違する。なお、図24では、状態検出部100に、上述の実施形態で説明した返事モデル記憶部101と、区間検出部111と、状態判定部112とを有する構成でもよい。
図28は、第7の実施形態による発話状態検出装置1を、コンピュータを用いて実現したハードウェア構成の例を示す図である。第7の実施形態による発話状態検出装置1のハードウェア構成は、上述した実施形態と基本的に同様の構成を有するが、以下に説明する点が上述の実施形態とは異なる。なお、上述した実施形態と同様に、CPU22に代えて、他のプロセッサ(例えば、MPU(Micro Processing Unit)等。)やIC(例えば、ASIC(Application Specific Integrated Circuit)等。)を有する装置を用いてもよい。また、第7の実施形態による発話状態検出装置1は、少なくとも、通話が可能な電話機能を有する電子機器を用いて構成され、例えば、携帯電話またはスマートフォン、PHS(Personal Handy-phone System)のような電子機器を用いて実装できる。
図29は、第7の実施形態に係る発話状態検出装置による処理全体の流れを示す図である。なお、第7の実施形態に係る発話状態検出装置による処理は、通話開始から通話終了まで実行される。
次に、危険度算出プログラム24fに基づく通話相手による危険度算出処理の流れを説明する。図30は、危険度算出プログラム24fにより実行される通話相手による危険度算出処理のオペレーションチャートの一例を示す図である。
次に、危険度算出プログラム24fに基づく通話時間による危険度算出処理の流れを説明する。図32は、危険度算出プログラム24fにより実行される通話時間による危険度算出処理のオペレーションチャートの一例を示す図である。
ところで、上述した警告の通知を行った場合に、発話状態検出装置1、時間帯別危険度記憶部103に記憶されているデータなどを一括管理するサーバにアップロードし、サーバから再び配信するようにしてもよい。以下では、発話状態検出装置1からサーバへの情報アップロード処理、サーバの情報配信処理について説明する。
図33は、情報アップロード処理のオペレーションチャートの一例を示す図である。図33に示すように、例えば、CPU22は、通話終了時、異常通知を行ったか、つまり詐欺行為などに巻き込まれている可能性がある旨の警告を行ったかどうかを判定する(Op1501)。CPU22は、異常通知を行った場合には(Op1501、Yes)、通話終了後、該当通話の通話情報をユーザに確認する(Op1502)。つまり、CPU22は、警告の通知が正しかったか否かをユーザに選択させるための通話情報を出力し、警告の通知が正しかったか否かの選択結果を受け付ける。そして、CPU22は、ユーザにより選択結果が反映された通話情報と、警告の通知を行った通話に関連する情報(電話帳登録からの経過日数、通話日、時刻、曜日などの情報)とをサーバに送信して(Op1503)、処理を終了する。
図34は、情報配信処理のオペレーションチャートの一例を示す図である。なお、図34に示す情報配信処理は、サーバの起動中、繰り返し実行される。図34に示すように、例えば、サーバは、各端末(発話状態検出装置1)からアップロードされた情報データ(図33の通話情報や警告の通知を行った通話に関連するする情報)を日付別にメモリなどに保存する(Op1601)。そして、サーバに搭載されたCPUなどの制御部は、次の処理を行う。すなわち、制御部は、毎日0時に、保存している過去1年分のデータで、上述した図26および図27に示す時間帯別危険度記憶部103のデータ、および図31に示す危険度算出テーブルのデータを再作成し、各端末に配信する(Op1602)。
ところで、第7の実施形態に係る発話状態検出装置1において、通話時間長とユーザの発話時間長(発話区間長の合計時間)の比を利用して、詐欺に誘引しようとする通話を精度良く検出するようにしてもよい。
総合異常度Rt=通話の異常度合いR*0.1(0.8<Rb)
=通話の異常度合いR*0.2(0.7<Rb≦0.8)
=通話の異常度合いR*0.4(0.5<Rb≦0.7)
=通話の異常度合いR*1.0(0.3<Rb≦0.5)
=通話の異常度合いR*1.2(Rb≦0.3) …(3)
ところで、第7の実施形態に係る発話状態検出装置1において、通話時間長とユーザの返事時間長(返事区間の合計時間)の比を利用して、詐欺に誘引しようとする通話を精度良く検出するようにしてもよい。
総合異常度Rt=通話の異常度合いR*1.2(0.7<Rc)
=通話の異常度合いR*1.1(0.5<Rc≦0.7)
=通話の異常度合いR*1.0(Rc≦0.5) …(4)
ところで、第7の実施形態に係る発話状態検出装置1において、時間情報として、ユーザの話速を利用して、詐欺に誘引しようとする通話を精度良く検出するようにしてもよい。
総合異常度Rt=通話の異常度合いR*0.8(5.5<Rp)
=通話の異常度合いR*1.0(4.5<Rp≦5.5)
=通話の異常度合いR*1.2(Rp≦4.5) …(5)
上述してきたとおり、第7の実施形態に係る発話状態検出装置1は、非日常状態にあるか否かを判定する以外に、通話相手、通話の時間や曜日、対話中の返事の割合、対話における発話の速度などを総合的に加味して、詐欺に誘引しようとする通話を検出する。このようなことから、第7の実施形態によれば、誤検出を防止できる。
いわゆる「振り込め詐欺」や「オレオレ詐欺」、還付金詐欺などの詐欺行為は、詐欺の加害者が不正取得した地域別の電話帳や学校名簿などを利用することが多いため、特定の地域に集中して発生することが知られている。そこで、詐欺が集中する地域では、詐欺を検出する装置の検出感度を高くして詐欺の検出を行っていた。しかしながら、加害者が、この検出装置を入手すれば、検出装置の検出感度が高い地域を推定することが出来てしまう。これにより、加害者は、検出装置を幾つかの地域で試用して、感度の低い地域を探し出し、ターゲットにするといった悪用が可能となってしまう。そこで、第8の実施形態では、以下、図38〜図42を用いて、詐欺行為の加害者に検出装置の検出感度を悟られないようすることが可能な装置について説明する。
[8−1.機能ブロック]
図38は、第8の実施形態による移動体端末の機能ブロックの一例を示す図である。移動体端末2は、ネットワーク4を介して、他の移動体端末2やサーバ3と通信可能な状態で接続される。そして、移動体端末2は、図38に示すように、犯罪発生履歴記憶部301と、位置情報記憶部302と、住所履歴記憶部303とを有する。また、移動体端末2は、図38に示すように、犯罪情報取得部310と、犯罪危険度算出部320と、住所取得部330と、危険度判定部340と、犯罪検出制御部350と、発話状態検出部360と、犯罪検出部370とを有する。なお、移動体端末2は、携帯電話またはスマートフォンのような携帯可能な電子機器等を用いて実装することができる。
図41は、危険度判定部による処理のオペレーションチャートの一例を示す図である。図41に示すように、危険度判定部340は、危険度判定のタイミングになるか否かを判定する(Op1701)。危険度判定部340は、危険度判定のタイミングではない場合には(Op1701、No)、危険度判定のタイミングになるまでOp1701の判定を繰り返す。
図42は、犯罪検出制御部による処理のオペレーションチャートの一例を示す図である。図42に示すように、犯罪検出制御部350は、危険度判定部340により検出閾値の調整を実行する旨の決定が行われたか否かを判定する(Op1801)。判定の結果、検出閾値の調整を実行する旨の決定が行われた場合には(Op1801、Yes)、犯罪検出制御部350は、犯罪危険度算出部320により算出された危険度を取得する(Op1802)。
上述してきたとおり、第8の実施形態では、移動体端末2のユーザの生活拠点(自宅)を推定し、その生活拠点における犯罪発生情報に応じて、犯罪の検出感度を動的に変更する。第8の実施形態によれば、詐欺の加害者に地域別に変更された詐欺の検出感度(閾値)を推定されることなく、詐欺に誘引しようとする通話の検出漏れを防ぐことができる。
2 移動体端末
11 発話データ取得部
12 周波数成分抽出部
13 変動度合い算出部
14 統計量算出部
15 発話状態検出パラメータ作成部
16 発話状態検出部
17 SN比算出部
100 状態検出部
101 返事モデル記憶部
102 電話帳記憶部
103 時間帯別危険度記憶部
111 区間検出部
112 状態判定部
113 危険度算出部
114 通話時間長算出部
115 通話時間比算出部
116 返事時間比算出部
117 音素認識部
118 話速算出部
200 総合判定部
Claims (17)
- 発話者の発話データを取得する発話データ取得部と、
前記発話データを周波数解析した結果から高域周波数成分を抽出する周波数成分抽出部と、
抽出した前記高域周波数成分について単位時間毎の周波数の変動度合いを算出する変動度合い算出部と、
所定期間における複数の前記変動度合いに基づいて、所定区間毎の統計量を算出する統計量算出部と、
特定発話者の発話データから得られた前記統計量に基づいて、当該統計量が第1の閾値以上である特定区間を抽出し、前記発話データ全体の区間に対して前記特定区間が占める割合が第2の閾値以上である場合に、前記特定発話者の発話状態を検出する発話状態検出部とを備えた発話状態検出装置。 - 前記発話状態検出部は、不特定発話者が既知の発話状態で発話した発話データから得られた前記統計量に基づいて算出された発話状態検出パラメータを用いて、前記特定発話者の発話状態が日常状態であるか非日常状態であるかを検出する、請求項1に記載の発話状態検出装置。
- 不特定発話者が既知の発話状態で発話した発話データから得られた前記統計量に基づいて前記発話状態検出パラメータを作成する発話状態検出パラメータ作成部をさらに備えた、請求項2に記載の発話状態検出装置。
- 前記高域周波数成分は、第1フォルマントを含まないように周波数成分を抽出したものである、請求項1に記載の発話状態検出装置。
- 前記高域周波数成分は、2kHz以上の周波数成分を抽出したものである、請求項1に記載の発話状態検出装置。
- 前記変動度合い算出部は、前記変動度合いを、次の式:
変動度合い=log(高域周波数成分のパワースペクトルの幾何平均)/log(高域周波数成分のパワースペクトルの算術平均)
に基づいて算出する、請求項1に記載の発話状態検出装置。 - 前記変動度合い算出部は、前記変動度合いを、次の式:
変動度合い=log(高域周波数成分の残差パワースペクトルの幾何平均)/log(高域周波数成分の残差パワースペクトルの算術平均)
に基づいて算出する、請求項1に記載の発話状態検出装置。 - 前記変動度合い算出部は、前記変動度合いを、次の式:
変動度合い=高域周波数成分のパワースペクトルの幾何平均/高域周波数成分のパワースペクトルの算術平均
に基づいて算出する、請求項1に記載の発話状態検出装置。 - 前記変動度合い算出部は、前記変動度合いを、高域周波数成分の残差パワースペクトルの分散に基づいて算出する、請求項1に記載の発話状態検出装置。
- 前記変動度合い算出部は、前記変動度合いを、高域周波数成分のパワースペクトルの4分位数範囲に基づいて算出する、請求項1に記載の発話状態検出装置。
- 前記発話データにかかるSN比を算出するSN比算出部をさらに備え、
前記発話状態検出部は、統計量を算出した前記所定期間に対応するSN比が閾値よりも大きくなる場合に発話状態を検出する、請求項1に記載の発話状態検出装置。 - 発話者の発話データを取得する発話データ取得処理と、
前記発話データを周波数解析した結果から高域周波数成分を抽出する周波数成分抽出処理と、
抽出した前記高域周波数成分について単位時間毎の周波数の変動度合いを算出する変動度合い算出処理と、
所定期間における複数の前記変動度合いに基づいて、所定区間毎の統計量を算出する統計量算出処理と、
特定発話者の発話データから得られた前記統計量に基づいて、当該統計量が第1の閾値以上である特定区間を抽出し、前記発話データ全体の区間に対して前記特定区間が占める割合が第2の閾値以上である場合に、前記特定発話者の発話状態を検出する発話状態検出処理とをコンピュータに実行させる発話状態検出プログラム。 - 発話者の発話データを取得する発話データ取得工程と、
前記発話データを周波数解析した結果から高域周波数成分を抽出する周波数成分抽出工程と、
抽出した前記高域周波数成分について単位時間毎の周波数の変動度合いを算出する変動度合い算出工程と、
所定期間における複数の前記変動度合いに基づいて、所定区間毎の統計量を算出する統計量算出工程と、
特定発話者の発話データから得られた前記統計量に基づいて、当該統計量が第1の閾値以上である特定区間を抽出し、前記発話データ全体の区間に対して前記特定区間が占める割合が第2の閾値以上である場合に、前記特定発話者の発話状態を検出する発話状態検出工程とを含む発話状態検出方法。 - 前記発話者が平常状態にあるときの返事に係る情報を統計処理した返事モデルを記憶する返事モデル記憶部と、
前記発話データにおける音声区間が所定の閾値よりも短い区間である返事区間を推定する区間検出部と、
前記区間検出部により前記返事区間が連続していると推定された場合には、前記返事モデル記憶部に記憶されている返事モデルを参照して、前記返事区間の平常性を判定する状態判定部と
をさらに有する、請求項1に記載の発話状態検出装置。 - 前記状態判定部は、さらに、前記音声区間における前記返事区間の数、前記音声区間の全体長における前記返事区間の長さ、前記返事区間内における各返事の間隔長、または前記返事区間の総長のいずれか1つ又は複数を用いて、前記返事区間の平常性を判定する、請求項14に記載の発話状態検出装置。
- 前記発話者により行われる通話の通話時間長を算出する通話時間長算出部と、
前記通話における音声区間の区間長の総和と前記通話における音節列の総和とに基づいて、前記発話者の話速を算出する話速算出部とをさらに有し、
前記状態判定部は、前記通話時間長算出部により算出された通話時間長と前記音声区間の区間長の総和との比、前記通話時間長と前記返事区間の区間長の総和との比、または前記話速算出部により算出された前記話速のいずれか一つまたは複数を用いて、前記返事区間の平常性を判定する、請求項14に記載の発話状態検出装置。 - 前記発話者により行われる通話の通話時間長を算出する通話時間長算出部と、
前記通話における音声区間の区間長の総和と前記通話における音節列の総和とに基づいて、前記発話者の話速を算出する話速算出部と、
前記発話状態検出部による前記発話状態の検出結果と、前記話速算出部により算出された話速とを用いて、前記発話状態を総合判定する総合判定部と
をさらに有する、請求項1に記載の発話状態検出装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011081133A JP5834449B2 (ja) | 2010-04-22 | 2011-03-31 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
US13/064,871 US9099088B2 (en) | 2010-04-22 | 2011-04-21 | Utterance state detection device and utterance state detection method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010098936 | 2010-04-22 | ||
JP2010098936 | 2010-04-22 | ||
JP2011081133A JP5834449B2 (ja) | 2010-04-22 | 2011-03-31 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011242755A JP2011242755A (ja) | 2011-12-01 |
JP5834449B2 true JP5834449B2 (ja) | 2015-12-24 |
Family
ID=44912544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011081133A Active JP5834449B2 (ja) | 2010-04-22 | 2011-03-31 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9099088B2 (ja) |
JP (1) | JP5834449B2 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5494468B2 (ja) * | 2010-12-27 | 2014-05-14 | 富士通株式会社 | 状態検出装置、状態検出方法および状態検出のためのプログラム |
JP5803125B2 (ja) * | 2011-02-10 | 2015-11-04 | 富士通株式会社 | 音声による抑圧状態検出装置およびプログラム |
US9774747B2 (en) * | 2011-04-29 | 2017-09-26 | Nexidia Inc. | Transcription system |
JP5664480B2 (ja) * | 2011-06-30 | 2015-02-04 | 富士通株式会社 | 異常状態検出装置、電話機、異常状態検出方法、及びプログラム |
JP5810912B2 (ja) * | 2011-12-28 | 2015-11-11 | 富士通株式会社 | 音声認識装置、音声認識方法及び音声認識プログラム |
CN103187055B (zh) * | 2011-12-28 | 2018-07-27 | 上海博泰悦臻电子设备制造有限公司 | 基于车载应用的数据处理系统 |
JP5810946B2 (ja) * | 2012-01-31 | 2015-11-11 | 富士通株式会社 | 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム |
JP5840077B2 (ja) * | 2012-06-15 | 2016-01-06 | 日本電信電話株式会社 | 発生音感知装置、方法、プログラム |
CN104737226B (zh) * | 2012-10-16 | 2017-06-06 | 奥迪股份公司 | 机动车中的语音识别 |
US9837078B2 (en) | 2012-11-09 | 2017-12-05 | Mattersight Corporation | Methods and apparatus for identifying fraudulent callers |
JP6051915B2 (ja) * | 2013-02-18 | 2016-12-27 | 日本電気株式会社 | 商談支援装置、商談支援方法および商談支援プログラム |
JP6268717B2 (ja) | 2013-03-04 | 2018-01-31 | 富士通株式会社 | 状態推定装置、状態推定方法及び状態推定用コンピュータプログラム |
CN105103230B (zh) * | 2013-04-11 | 2020-01-03 | 日本电气株式会社 | 信号处理装置、信号处理方法、信号处理程序 |
US9646613B2 (en) * | 2013-11-29 | 2017-05-09 | Daon Holdings Limited | Methods and systems for splitting a digital signal |
WO2015111772A1 (ko) | 2014-01-24 | 2015-07-30 | 숭실대학교산학협력단 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
WO2015111771A1 (ko) | 2014-01-24 | 2015-07-30 | 숭실대학교산학협력단 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
WO2015115677A1 (ko) * | 2014-01-28 | 2015-08-06 | 숭실대학교산학협력단 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
KR101621797B1 (ko) | 2014-03-28 | 2016-05-17 | 숭실대학교산학협력단 | 시간 영역에서의 차신호 에너지법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
KR101621780B1 (ko) | 2014-03-28 | 2016-05-17 | 숭실대학교산학협력단 | 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
KR101569343B1 (ko) | 2014-03-28 | 2015-11-30 | 숭실대학교산학협력단 | 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 |
JP6350148B2 (ja) | 2014-09-09 | 2018-07-04 | 富士通株式会社 | 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム |
JP6303971B2 (ja) | 2014-10-17 | 2018-04-04 | 富士通株式会社 | 話者交替検出装置、話者交替検出方法及び話者交替検出用コンピュータプログラム |
US9659564B2 (en) * | 2014-10-24 | 2017-05-23 | Sestek Ses Ve Iletisim Bilgisayar Teknolojileri Sanayi Ticaret Anonim Sirketi | Speaker verification based on acoustic behavioral characteristics of the speaker |
US10134425B1 (en) * | 2015-06-29 | 2018-11-20 | Amazon Technologies, Inc. | Direction-based speech endpointing |
JP6501259B2 (ja) * | 2015-08-04 | 2019-04-17 | 本田技研工業株式会社 | 音声処理装置及び音声処理方法 |
JP6519413B2 (ja) * | 2015-08-31 | 2019-05-29 | 富士通株式会社 | 迷惑電話検出装置、迷惑電話検出方法、及びプログラム |
JP6746963B2 (ja) * | 2016-03-04 | 2020-08-26 | ヤマハ株式会社 | 会話評価装置、プログラムおよび会話評価方法 |
US10244113B2 (en) * | 2016-04-26 | 2019-03-26 | Fmr Llc | Determining customer service quality through digitized voice characteristic measurement and filtering |
CN106710606B (zh) * | 2016-12-29 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音处理方法及装置 |
US10983753B2 (en) | 2017-06-09 | 2021-04-20 | International Business Machines Corporation | Cognitive and interactive sensor based smart home solution |
JP7103769B2 (ja) | 2017-09-05 | 2022-07-20 | 京セラ株式会社 | 電子機器、携帯端末、コミュニケーションシステム、見守り方法、およびプログラム |
US10388286B1 (en) * | 2018-03-20 | 2019-08-20 | Capital One Services, Llc | Systems and methods of sound-based fraud protection |
JP6420514B1 (ja) * | 2018-04-04 | 2018-11-07 | 一般社団法人It&診断支援センター・北九州 | 会話ロボット |
US10665228B2 (en) | 2018-05-23 | 2020-05-26 | Bank of America Corporaiton | Quantum technology for use with extracting intents from linguistics |
JP2021529382A (ja) | 2018-06-19 | 2021-10-28 | エリプシス・ヘルス・インコーポレイテッド | 精神的健康評価のためのシステム及び方法 |
US20190385711A1 (en) | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
JP7331588B2 (ja) * | 2019-09-26 | 2023-08-23 | ヤマハ株式会社 | 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム |
KR20220061505A (ko) * | 2020-11-06 | 2022-05-13 | 현대자동차주식회사 | 감정 조절 시스템 및 감정 조절 방법 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05273992A (ja) * | 1992-03-25 | 1993-10-22 | Mitsubishi Electric Corp | 音声区間検出装置 |
JPH0792989A (ja) | 1993-09-22 | 1995-04-07 | Oki Electric Ind Co Ltd | 音声認識方法 |
JP3604393B2 (ja) * | 1994-07-18 | 2004-12-22 | 松下電器産業株式会社 | 音声検出装置 |
SE506034C2 (sv) * | 1996-02-01 | 1997-11-03 | Ericsson Telefon Ab L M | Förfarande och anordning för förbättring av parametrar representerande brusigt tal |
US6006175A (en) * | 1996-02-06 | 1999-12-21 | The Regents Of The University Of California | Methods and apparatus for non-acoustic speech characterization and recognition |
US5937374A (en) * | 1996-05-15 | 1999-08-10 | Advanced Micro Devices, Inc. | System and method for improved pitch estimation which performs first formant energy removal for a frame using coefficients from a prior frame |
JPH11119791A (ja) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
US6718302B1 (en) * | 1997-10-20 | 2004-04-06 | Sony Corporation | Method for utilizing validity constraints in a speech endpoint detector |
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
US6275806B1 (en) * | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US6873953B1 (en) * | 2000-05-22 | 2005-03-29 | Nuance Communications | Prosody based endpoint detection |
US20020116177A1 (en) * | 2000-07-13 | 2002-08-22 | Linkai Bu | Robust perceptual speech processing system and method |
JP3676969B2 (ja) | 2000-09-13 | 2005-07-27 | 株式会社エイ・ジー・アイ | 感情検出方法及び感情検出装置ならびに記録媒体 |
EP1256937B1 (en) | 2001-05-11 | 2006-11-02 | Sony France S.A. | Emotion recognition method and device |
US20040249637A1 (en) * | 2003-06-04 | 2004-12-09 | Aurilab, Llc | Detecting repeated phrases and inference of dialogue models |
CN1830025A (zh) * | 2003-08-01 | 2006-09-06 | 皇家飞利浦电子股份有限公司 | 驱动对话系统的方法 |
JP2005352154A (ja) | 2004-06-10 | 2005-12-22 | National Institute Of Information & Communication Technology | 感情状態反応動作装置 |
US20060122834A1 (en) * | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US8738370B2 (en) * | 2005-06-09 | 2014-05-27 | Agi Inc. | Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program |
US20070055514A1 (en) * | 2005-09-08 | 2007-03-08 | Beattie Valerie L | Intelligent tutoring feedback |
WO2007046267A1 (ja) * | 2005-10-20 | 2007-04-26 | Nec Corporation | 音声判別システム、音声判別方法及び音声判別用プログラム |
KR100800873B1 (ko) * | 2005-10-28 | 2008-02-04 | 삼성전자주식회사 | 음성 신호 검출 시스템 및 방법 |
WO2007072485A1 (en) * | 2005-12-22 | 2007-06-28 | Exaudios Technologies Ltd. | System for indicating emotional attitudes through intonation analysis and methods thereof |
JP2007286097A (ja) * | 2006-04-12 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体 |
JP4085130B2 (ja) * | 2006-06-23 | 2008-05-14 | 松下電器産業株式会社 | 感情認識装置 |
EP2063416B1 (en) * | 2006-09-13 | 2011-11-16 | Nippon Telegraph And Telephone Corporation | Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program |
JP4282704B2 (ja) * | 2006-09-27 | 2009-06-24 | 株式会社東芝 | 音声区間検出装置およびプログラム |
EP1939859A3 (en) * | 2006-12-25 | 2013-04-24 | Yamaha Corporation | Sound signal processing apparatus and program |
BRPI0807703B1 (pt) * | 2007-02-26 | 2020-09-24 | Dolby Laboratories Licensing Corporation | Método para aperfeiçoar a fala em áudio de entretenimento e meio de armazenamento não-transitório legível por computador |
JP4914295B2 (ja) | 2007-06-21 | 2012-04-11 | パナソニック株式会社 | 力み音声検出装置 |
WO2009004750A1 (ja) * | 2007-07-02 | 2009-01-08 | Mitsubishi Electric Corporation | 音声認識装置 |
US20090043586A1 (en) * | 2007-08-08 | 2009-02-12 | Macauslan Joel | Detecting a Physiological State Based on Speech |
KR100930584B1 (ko) * | 2007-09-19 | 2009-12-09 | 한국전자통신연구원 | 인간 음성의 유성음 특징을 이용한 음성 판별 방법 및 장치 |
WO2009084221A1 (ja) * | 2007-12-27 | 2009-07-09 | Panasonic Corporation | 符号化装置、復号装置およびこれらの方法 |
US8195460B2 (en) * | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
JP2010011409A (ja) * | 2008-06-30 | 2010-01-14 | Nippon Telegr & Teleph Corp <Ntt> | 映像ダイジェスト装置及び映像編集プログラム |
KR101014321B1 (ko) * | 2009-02-24 | 2011-02-14 | 한국전자통신연구원 | 최소 분류 오차 기법을 이용한 감정 인식 방법 |
-
2011
- 2011-03-31 JP JP2011081133A patent/JP5834449B2/ja active Active
- 2011-04-21 US US13/064,871 patent/US9099088B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9099088B2 (en) | 2015-08-04 |
JP2011242755A (ja) | 2011-12-01 |
US20110282666A1 (en) | 2011-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5834449B2 (ja) | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 | |
KR102196400B1 (ko) | 핫워드 적합성을 결정하는 방법 및 장치 | |
US8825479B2 (en) | System and method for recognizing emotional state from a speech signal | |
JP5810946B2 (ja) | 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム | |
JP5664480B2 (ja) | 異常状態検出装置、電話機、異常状態検出方法、及びプログラム | |
US9934779B2 (en) | Conversation analyzing device, conversation analyzing method, and program | |
JP6268717B2 (ja) | 状態推定装置、状態推定方法及び状態推定用コンピュータプログラム | |
US7962342B1 (en) | Dynamic user interface for the temporarily impaired based on automatic analysis for speech patterns | |
US20160307571A1 (en) | Conversation analysis device, conversation analysis method, and program | |
US20080046241A1 (en) | Method and system for detecting speaker change in a voice transaction | |
US10553240B2 (en) | Conversation evaluation device and method | |
JPWO2008117626A1 (ja) | 話者選択装置、話者適応モデル作成装置、話者選択方法、話者選択用プログラムおよび話者適応モデル作成プログラム | |
US20130246064A1 (en) | System and method for real-time speaker segmentation of audio interactions | |
Pohjalainen et al. | Detection of shouted speech in noise: Human and machine | |
WO2020013296A1 (ja) | 精神・神経系疾患を推定する装置 | |
JP4852584B2 (ja) | 禁止語発信防止方法、禁止語発信防止電話、禁止語発信防止サーバ | |
JP6268916B2 (ja) | 異常会話検出装置、異常会話検出方法及び異常会話検出用コンピュータプログラム | |
CN113921026A (zh) | 语音增强方法和装置 | |
JP6233867B2 (ja) | 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム | |
EP2541544A1 (en) | Voice sample tagging | |
JP2006230446A (ja) | 健康状態推定装置 | |
CN113241059B (zh) | 语音唤醒方法、装置、设备及存储介质 | |
JP2015087557A (ja) | 発話様式検出装置および発話様式検出方法 | |
JP5151103B2 (ja) | 音声認証装置、音声認証方法およびプログラム | |
CN113593580A (zh) | 一种声纹识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5834449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |