JP2020003783A - 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット - Google Patents
音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット Download PDFInfo
- Publication number
- JP2020003783A JP2020003783A JP2019105860A JP2019105860A JP2020003783A JP 2020003783 A JP2020003783 A JP 2020003783A JP 2019105860 A JP2019105860 A JP 2019105860A JP 2019105860 A JP2019105860 A JP 2019105860A JP 2020003783 A JP2020003783 A JP 2020003783A
- Authority
- JP
- Japan
- Prior art keywords
- period
- voice
- subject
- opening
- closing operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 111
- 230000029058 respiratory gaseous exchange Effects 0.000 claims abstract description 111
- 238000003384 imaging method Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 72
- 230000001755 vocal effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 54
- 238000012545 processing Methods 0.000 description 40
- 210000003128 head Anatomy 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 20
- 230000008859 change Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 11
- 238000000926 separation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
浅野 太、“音源分離”、[online]、2011年11月受領、電子情報通信学会『知識の森』、[2017年6月15日検索]、インターネット
<URL:http://www.ieice-hbkb.org/files/02/02gun_06hen_02.pdf>
堀田 一弘、“小特集 顔認識技術 1.顔認識の研究動向” 、[online]、2012年3月28日公開、映像情報メディア学会誌、Vol.64,No.4(2010),p.459-462、[2017年6月15日検索]、インターネット
<URL: https://www.jstage.jst.go.jp/article/itej/64/4/64_4_455/_pdf>
littlewing、“WEBカメラで利用できる顔認識技術まとめ-その2”、[online]、2015年4月7日公開、[2017年6月15日検索]、インターネット
<URL: http://littlewing.hatenablog.com/entry/2015/04/07/221856>
C.sagonas,”Facial point annotations”、[online]、[2017年6月15日検索]、インターネット
<URL: https://ibug.doc.ic.ac.uk/resources/facial-point-annotations/>
−data.y[67](t))・・・(2)
yy1+=fabs(data.y[61](t)
−data.y[58](t))・・・(3)
yy1+=fabs(data.y[62](t)
−data.y[66](t))・・・(4)
yy1+=fabs(data.y[62](t)
−data.y[57](t))・・・(5)
yy1+=fabs(data.y[63](t)
−data.y[65](t))・・・(6)
yy1+=fabs(data.y[63](t)
−data.y[56](t))・・・(7)
−data.y[60](t))・・・(8)
yy2+=fabs(data.y[32](t)
−data.y[61](t))・・・(9)
yy2+=fabs(data.y[33](t)
−data.y[62](t))・・・(10)
yy2+=fabs(data.y[34](t)
−data.y[63](t))・・・(11)
yy2+=fabs(data.y[34](t)
−data.y[64](t))・・・(12)
+data.x[63](t)+data.x[67](t)
+data.x[66](t)+data.x[65](t)
・・・(14)
・・・(16)
Δyaw=abs(F(t)yaw−F(t−1)yaw)
・・・(17)
Δpitch=abs(F(t)pitch−F(t−1)pitch)
・・・(18)
Δx<x_th &&
Δroll<roll_th &&
Δyaw<yaw_th &&
Δpitch<pitch_th
・・・(19)
“顔認識ソフトウェアFaceU”、[online]、PUX株式会社ホームページ [2018年6月12日検索]、インターネット
<URL:https://www.pux.co.jp/%E8%A3%BD%E5%93%81%E6%83%85%E5%A0%B1/%E7%94%BB%E5%83%8F%E8%AA%8D%E8%AD%98/%E9%A1%94%E8%AA%8D%E8%AD%98/>
LEE Akinobu“第5章 音声区間検出・入力棄却”、[online]、The Julius book [2018年6月12日検索]、インターネット
<URL: https://julius.osdn.jp/juliusbook/ja/desc_vad.html>
(付記1)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出装置。
(付記2)
前記呼吸期間判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が開始されてから前記対象者の口唇の前記開閉動作が行われなくなったときまでの期間を、前記発声直前呼吸期間として判定することを特徴とする、付記1に記載の音声期間検出装置。
(付記3)
前記対象者から入力された音声に基づいて前記対象者の発声が開始されたタイミングである発声開始タイミングを検出する発声開始タイミング検出手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されたタイミングである口唇の開閉動作開始タイミングを検出する開閉動作開始タイミング検出手段と、
前記検出された発声開始タイミング及び口唇の開閉動作開始タイミングに応じて、前記第1所定時間を設定する第1所定時間設定手段と、
をさらに備えることを特徴とする、付記2に記載の音声期間検出装置。
(付記4)
前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから第2所定時間前のタイミングを前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする、付記1から3のいずれか1項に記載の音声期間検出装置。
(付記5)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記音声期間の終了タイミングとすることを特徴とする音声期間検出装置。
(付記6)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
を備えることを特徴とする音声期間検出装置。
(付記7)
前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、付記6に記載の音声期間検出装置。
(付記8)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記撮像された前記対象者が発声している期間である音声期間を検出する音声期間検出ステップと、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定ステップと、を含み、
前記音声期間検出ステップでは、前記呼吸期間判定ステップにより検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出方法。
(付記9)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとする音声期間検出ステップを含むことを特徴とする音声期間検出方法。
(付記10)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定ステップと、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出ステップと、
を含むことを特徴とする音声期間検出方法。
(付記11)
前記判定ステップでは、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、付記10に記載の音声期間検出方法。
(付記12)
コンピュータに、付記8から11のいずれか1項に記載の音声期間検出方法を実行させるためのプログラム。
(付記13)
対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声認識装置。
(付記14)
対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、を備え、
前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする音声認識装置。
(付記15)
対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
を備えることを特徴とする音声認識装置。
(付記16)
前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、付記15に記載の音声認識装置。
(付記17)
付記13から16のいずれか1項に記載の音声認識装置を備えるロボット。
101 頭部
102 胴体
103 マイクアレイ
104 カメラ
105 スピーカ
106 センサ群
107 首関節駆動部
108 足回り駆動部
200 ロボット制御システム
201 制御部
202 記憶部
203 操作ボタン
204 電源部
205 制御プログラム
301 音声期間検出部
302 音声入力部
303 音声認識部
304 呼吸期間判定部
305 画像入力部
306 顔検出部
307 口パーツ検出部307
308 口開閉判定部
309 発声部
Claims (17)
- 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出装置。 - 前記呼吸期間判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が開始されてから前記対象者の口唇の前記開閉動作が行われなくなったときまでの期間を、前記発声直前呼吸期間として判定することを特徴とする、請求項1に記載の音声期間検出装置。
- 前記対象者から入力された音声に基づいて前記対象者の発声が開始されたタイミングである発声開始タイミングを検出する発声開始タイミング検出手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されたタイミングである口唇の開閉動作開始タイミングを検出する開閉動作開始タイミング検出手段と、
前記検出された発声開始タイミング及び口唇の開閉動作開始タイミングに応じて、前記第1所定時間を設定する第1所定時間設定手段と、
をさらに備えることを特徴とする、請求項2に記載の音声期間検出装置。 - 前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから第2所定時間前のタイミングを前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする、請求項1から3のいずれか1項に記載の音声期間検出装置。
- 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記音声期間の終了タイミングとすることを特徴とする音声期間検出装置。
- 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
を備えることを特徴とする音声期間検出装置。 - 前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、請求項6に記載の音声期間検出装置。
- 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記撮像された前記対象者が発声している期間である音声期間を検出する音声期間検出ステップと、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定ステップと、を含み、
前記音声期間検出ステップでは、前記呼吸期間判定ステップにより検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出方法。 - 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとする音声期間検出ステップを含むことを特徴とする音声期間検出方法。
- 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定ステップと、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出ステップと、
を含むことを特徴とする音声期間検出方法。 - 前記判定ステップでは、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、請求項10に記載の音声期間検出方法。
- コンピュータに、請求項8から11のいずれか1項に記載の音声期間検出方法を実行させるためのプログラム。
- 対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声認識装置。 - 対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、を備え、
前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする音声認識装置。 - 対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
を備えることを特徴とする音声認識装置。 - 前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、請求項15に記載の音声認識装置。
- 請求項13から16のいずれか1項に記載の音声認識装置を備えるロボット。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/441,348 US10997979B2 (en) | 2018-06-21 | 2019-06-14 | Voice recognition device and voice recognition method |
CN201910539973.5A CN110634505B (zh) | 2018-06-21 | 2019-06-20 | 声音期间检测装置、声音期间检测方法、存储介质、声音认识装置以及机器人 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118159 | 2018-06-21 | ||
JP2018118159 | 2018-06-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020003783A true JP2020003783A (ja) | 2020-01-09 |
JP7351105B2 JP7351105B2 (ja) | 2023-09-27 |
Family
ID=69099773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019105860A Active JP7351105B2 (ja) | 2018-06-21 | 2019-06-06 | 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7351105B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63127296A (ja) * | 1986-11-18 | 1988-05-31 | 株式会社リコー | 音声区間検出方式 |
JPH11288293A (ja) * | 1998-03-31 | 1999-10-19 | Brother Ind Ltd | 音声認識装置および記憶媒体 |
JP2008152125A (ja) * | 2006-12-19 | 2008-07-03 | Toyota Central R&D Labs Inc | 発話検出装置及び発話検出方法 |
WO2016098228A1 (ja) * | 2014-12-18 | 2016-06-23 | 三菱電機株式会社 | 音声認識装置および音声認識方法 |
JP2017211596A (ja) * | 2016-05-27 | 2017-11-30 | トヨタ自動車株式会社 | 音声対話システムおよび発話タイミング決定方法 |
JP2018077791A (ja) * | 2016-11-11 | 2018-05-17 | 日本電信電話株式会社 | 推定方法及び推定システム |
-
2019
- 2019-06-06 JP JP2019105860A patent/JP7351105B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63127296A (ja) * | 1986-11-18 | 1988-05-31 | 株式会社リコー | 音声区間検出方式 |
JPH11288293A (ja) * | 1998-03-31 | 1999-10-19 | Brother Ind Ltd | 音声認識装置および記憶媒体 |
JP2008152125A (ja) * | 2006-12-19 | 2008-07-03 | Toyota Central R&D Labs Inc | 発話検出装置及び発話検出方法 |
WO2016098228A1 (ja) * | 2014-12-18 | 2016-06-23 | 三菱電機株式会社 | 音声認識装置および音声認識方法 |
JP2017211596A (ja) * | 2016-05-27 | 2017-11-30 | トヨタ自動車株式会社 | 音声対話システムおよび発話タイミング決定方法 |
JP2018077791A (ja) * | 2016-11-11 | 2018-05-17 | 日本電信電話株式会社 | 推定方法及び推定システム |
Non-Patent Citations (1)
Title |
---|
古河 靖之: ""バイモーダル発話区間検知技術の研究開発"", OMRON TECHNICS 第42巻 第2号, JPN6023006294, 20 June 2002 (2002-06-20), pages 105 - 109, ISSN: 0004994948 * |
Also Published As
Publication number | Publication date |
---|---|
JP7351105B2 (ja) | 2023-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6686977B2 (ja) | 音源分離情報検出装置、ロボット、音源分離情報検出方法及びプログラム | |
US10997979B2 (en) | Voice recognition device and voice recognition method | |
JP4986433B2 (ja) | 物体を認識および追跡する装置及び方法 | |
US7340100B2 (en) | Posture recognition apparatus and autonomous robot | |
CN112088315A (zh) | 多模式语音定位 | |
JP5323770B2 (ja) | ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機 | |
JP2011186351A (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP2011191423A (ja) | 発話認識装置、発話認識方法 | |
WO2002099545A1 (en) | Man-machine interface unit control method, robot apparatus, and its action control method | |
JP7476941B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
JP2006181651A (ja) | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム | |
KR102290186B1 (ko) | 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법 | |
JP2009222969A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
CN108665907B (zh) | 声音识别装置、声音识别方法、记录介质以及机器人 | |
JP4730812B2 (ja) | 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体 | |
Saffari et al. | Ava (a social robot): Design and performance of a robotic hearing apparatus | |
JP2020057300A (ja) | 識別装置、ロボット、識別方法及びプログラム | |
US20140222425A1 (en) | Speech recognition learning method using 3d geometric information and speech recognition method using 3d geometric information | |
CN111326152A (zh) | 语音控制方法及装置 | |
JP2019003536A (ja) | 表情判定装置、表情判定方法及びプログラム | |
JP2010197998A (ja) | 音声信号処理システムおよび該システムを備えた自律ロボット | |
US20150039314A1 (en) | Speech recognition method and apparatus based on sound mapping | |
JP7351105B2 (ja) | 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット | |
JP4650888B2 (ja) | 発話検出装置、方法及びプログラム | |
JP7511374B2 (ja) | 発話区間検知装置、音声認識装置、発話区間検知システム、発話区間検知方法及び発話区間検知プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7351105 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |