JP2019015773A - 情報処理装置およびプログラム - Google Patents
情報処理装置およびプログラム Download PDFInfo
- Publication number
- JP2019015773A JP2019015773A JP2017131009A JP2017131009A JP2019015773A JP 2019015773 A JP2019015773 A JP 2019015773A JP 2017131009 A JP2017131009 A JP 2017131009A JP 2017131009 A JP2017131009 A JP 2017131009A JP 2019015773 A JP2019015773 A JP 2019015773A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice
- information
- terminal device
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 10
- 230000009471 action Effects 0.000 abstract description 6
- 238000012905 input function Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
請求項2に記載の発明は、前記音声指示手段は、前記検出手段によって前記動作が検出されなくなった場合に、検出されなくなったときよりも以前に前記取得手段から取得した前記音声情報を用いて前記音声指示を行う請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記検出手段は、本装置に対して発話を行う前記話者の画像に基づいて、前記動作を検出する請求項1に記載の情報処理装置である。
請求項4に記載の発明は、前記検出手段は、前記話者の口元の画像を検出する請求項3に記載の情報処理装置である。
請求項5に記載の発明は、前記検出手段は、前記話者の口元の動きを検出する請求項3に記載の情報処理装置である。
請求項6に記載の発明は、前記検出手段は、本装置と前記話者との距離の変位に基づいて、前記動作を検出する請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記検出手段は、予め定められた波長の光を用いて前記距離の変位を特定する請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記検出手段は、前記話者を撮影した画像における被写体の大きさに基づいて前記距離の変位を特定する請求項6に記載の情報処理装置である。
請求項9に記載の発明は、前記検出手段は、本装置が上下反転した状態にて、前記話者の口元の画像を撮像する請求項1に記載の情報処理装置である。
請求項10に記載の発明は、スピーカおよびマイクを備え、前記取得手段として前記スピーカにより前記音声情報を取得し、前記マイクにて音を出力する請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記音声指示手段は、本装置が上下反転された際に、前記音声指示のための前記取得手段からの前記音声情報の取得を開始する請求項9に記載の情報処理装置である。
請求項12に記載の発明は、前記検出手段は、本装置の下側に設けられるカメラである請求項1に記載の情報処理装置である。
請求項13に記載の発明は、話者の音声情報を取得する取得手段と、前記話者の発話に関する動作を検出する検出手段と、前記検出手段が検出する前記動作から特定される時期に前記取得手段が取得した前記音声情報に応じて音声指示を行う音声指示手段と、を備える情報処理装置である。
請求項14に記載の発明は、話者の音声情報を取得する取得手段と、発話を行う前記話者の状態から当該話者の一連の発話の終了を特定し、前記取得手段が取得した前記音声情報に応じて音声指示を行う音声指示手段と、を備える情報処理装置である。
請求項15に記載の発明は、情報処理装置として機能するコンピュータに、話者の音声情報を取得する機能と、前記話者の発話に関する動作を検出する機能と、前記動作を検出した後に取得した前記音声情報に応じて音声指示を行う機能と、を実現させるためのプログラムである。
請求項2の発明によれば、的確なタイミングで音声指示を終了することが可能になる。
請求項3の発明によれば、発話を行う話者の画像を用いて直接的に発話に関する動作を検出することができる。
請求項4の発明によれば、発話を行う口元の画像を用いて発話に関する動作を精度良く検出することができる。
請求項5の発明によれば、発話を行う口元の動きを用いて発話に関する動作を精度良く検出することができる。
請求項6の発明によれば、音声指示を行う際、話者と本装置とが相対的に近づいたり遠ざかったりするという動作を検出することが可能になる。
請求項7の発明によれば、本装置と話者との距離を直接的に検出することができる。
請求項8の発明によれば、撮像画像を利用して本装置と話者との距離を検出することができる。
請求項9の発明によれば、一般的に本装置の上側に配置されている撮像手段を利用して発話に関する動作を検出することが可能になる。
請求項10の発明によれば、本装置が上下反転された状態であっても、情報処理装置における音声情報の取得と音声の出力とが容易になる。
請求項11の発明によれば、本装置が上下反転されることによって、音声指示のための音声情報の取得を開始することができる。
請求項12の発明によれば、本装置と話者との距離が近い状態で音声指示が行われる際においても話者の発話に関する動作をカメラによって検出し易くなる。
請求項13の発明によれば、音声指示を行う際に、音声入力の開始や終了のために特別な操作を必要とする場合と比較して、話者の操作を容易にすることができる。
請求項14の発明によれば、音声指示を行う際に、音声入力の終了のために特別な操作を必要とする場合と比較して、話者の操作を容易にすることができる。
請求項15の発明によれば、音声指示を行う際に、音声入力の開始や終了のために特別な操作を必要とする場合と比較して、話者の操作を容易にすることが可能なプログラムを提供することができる。
<実施形態1>
図1は、実施形態1の端末装置1の全体図である。
図1に示すように、本実施形態の端末装置1は、画像を表示するとともにユーザの操作を受け付けるタッチパネル11と、音を出力するスピーカ12と、音声情報を取得するマイク13と、被写体を撮像するカメラ14と、赤外線を用いて対象物の検出を行う距離センサ15と、ユーザの操作を受け付ける操作ボタン16と、端末装置1の全体を統括的に制御する制御部17と、を備える。
なお、タッチパネル11には、例えば液晶ディスプレイや有機ELディスプレイ等を用いて良い。また、タッチパネルの構成には、静電容量方式や抵抗膜方式など各種方式を用いて良い。
なお、距離センサ15は、赤外線だけではなく、予め定められた波長の光を用いて対象物との距離を検出しても良い。
図2は、実施形態1の端末装置1のハードウェア構成例を示した図である。
図2に示すように、端末装置1は、演算手段であるCPU101と、記憶手段であるメインメモリ102、フラッシュメモリ103とを備える。また、端末装置1は、外部との通信を行うための通信I/F104と、端末装置1の向き検知するジャイロセンサ105と、端末装置1の動きを検知する加速度センサ106と、日時を計測するRTC(リアルタイムクロック)107と、を備える。
さらに、本実施形態の端末装置1では、音声入力により入力された文字列に基づいて、端末装置1において実行可能な各種操作を実行する「音声指示」が可能になっている。
例えば、音声指示として、音声入力によるインターネット検索を行う場合、まず、話者は、タッチパネル11に表示されるアイコン画像を操作して、インターネット検索のためのブラウザを起動する。その後、音声入力を開始するには、タッチパネル11に表示される音声入力の開始のためのボタンの操作が必要であった。また、音声入力の終了の際には、タッチパネル11に表示される音声入力の終了のためのボタンの操作が必要であった。
なお、音声入力の終了の際、音声入力の終了のためのボタンの操作が要求されない場合があるが、この場合、話者が発話を止めても、装置側において音声入力が継続されてしまったり、他の人の声や周囲の雑音などのノイズが文字入力に反映されたりすることがあった。
以下、簡易入力機能について、詳細に説明する。
図4は、端末装置1において音声指示が行われる際の説明図である。
図5は、端末装置1において音声指示が行われる際にカメラで取得される画像の一例の図である。
そして、本実施形態では、端末装置1は、端末装置1(本装置)に対して操作を行う話者の画像に基づいて話者の発話に関する動作を検出し、音声情報に応じた音声指示を行うようにしている。
そして、音声取得部21は、特定音量レベル期間の情報を、音声入力部23に送る。
そのため、話者が音声入力を行う際、図5(A)に示すように、カメラ14により取得される画像A(画像情報)は、主に話者の口元となり、画像Aは概ね口元の画像によって占められる状態になる。逆に、画像情報には、話者の口元以外の要素の画像が含まれにくくなる。
そこで、実施形態1では、画像情報として口元の画像が検出された際に、話者が発話を開始したタイミングと判断するようにしている。
そのため、話者が音声入力を終了する際、図5(B)に示すように、カメラ14により取得される画像B(画像情報)は、口元の画像ではなく、口元以外の要素を含む画像によって構成されたり、そもそも口元や顔自体を含まない画像によって構成されたりする。
そこで、実施形態1では、画像情報として口元の画像が検出されなくなった際に、話者が一連の発話を終了したタイミングと判断するようにしている。
なお、音声入力部23は、音響モデルや言語モデルなどの音声入力(音声認識)に関する各種のモデルを用いることができる。
なお、発話時間の情報に特定音量レベル期間の情報を加味して、音声入力の開始や終了のタイミングを特定することは、他の実施形態においても適用される。ただし、音声入力部23は、特定音量レベル期間の情報よりも発話期間の情報を優先する。
そして、音声入力部23は、作成した文字情報を指示部24に送る。
例えば、インターネット検索のアプリケーションが起動している状態で、指示部24が文字情報を取得した場合には、指示部24は、文字情報により特定される検索ワードをタッチパネル11に表示するとともに、その検索ワードについてインターネット検索を実行させる。
また、指示部24は、文字情報により特定される内容が、端末装置1に設けられた構成部を用いて実現される機能に関するものである場合、その機能を利用可能な状態にする。具体的には、文字情報が「〇〇に電話をかけて」といった内容であれば、指示部24は、〇〇と通話を行うために通信I/F104を起動して発信動作を行う。また、文字情報が「〇時〇分にアラームを鳴らして」といった内容であれば、指示部24は、〇時〇分にスピーカ12から予め定められたアラーム音を出力させる。
図6は、実施形態1の簡易入力機能の動作フロー図である。
以下では、音声入力により入力された検索ワードについてインターネット検索を実行させるという音声指示の例について説明する。
まず、話者は、予め定められた操作を行う(S101)。この例では、話者は、インターネット検索のためのブラウザを起動するために、タッチパネル11上に表示されるアイコンを押す(S101)。
一方、口元の画像が検出されない場合(S102にてNo)であって、文字入力が行われない場合(S103にてNo)には、予め定められた時間が経過したか否か判断する(S104)。
予め定められた時間が経過していなければ(S104でNo)、再びS102に戻り、口元の画像が検出されたか否かを判断する。また、予め定められた時間が経過していれば(S104でYes)、簡易入力機能としての処理は終了する。
その後、口元の画像が検出されなくなったか否かを判断する(S106)。S106にて口元の画像が検出されている場合には(S106にてNo)、マイク13にて取得する音声情報を用いる音声入力を継続する。
一方、S106にて口元の画像が検出されなくなった場合(S106にてYes)、その時点で、マイク13からの音声情報の取得を停止し、音声入力を終了する(S107)。
そして、本実施形態においては、音声入力が開始された後、音声入力が終了するまでにマイク13から取得した音声情報を用いて、予め定められた音声指示を実行する(S108)。この例では、音声入力が開始されてから終了するまでに取得された音声情報を変換した検索ワードを用いて、例えばインターネット検索を実行させる。
次に、変形例1について説明する。
画像取得部22による話者の画像の検出に基づく発話期間の特定は、上述した口元の画像の検出に基づく例に限定されない。例えば、画像取得部22は、話者の口元の動きを検出することで、発話期間を特定しても良い。
このように、変形例1において、画像取得部22は、話者が発話を行っていることを直接的かつ動的に検出する。
次に、実施形態2の端末装置1の簡易入力機能について説明する。なお、実施形態2において、実施形態1と同様な構成については同一の符号を付して、その詳細な説明を省略する。
図4を参照しながら説明したとおり、端末装置1に対して音声入力を行う場合、端末装置1と話者との距離が近くなる。そこで、実施形態2においては、端末装置1と話者との距離を検出することで、発話期間を特定する。
次に、変形例2について説明する。
上述した例では、端末装置1と話者との距離の変位に基づいて、話者の発話に関する動作を検出するにあたって、距離センサ15を用いているが、この例に限定されない。
図7は、実施形態3における端末装置1の音声指示の説明図である。
次に、実施形態3の端末装置1の簡易入力機能について説明する。なお、実施形態3において、他の実施形態と同様な構成については同一の符号を付して、その詳細な説明を省略する。
実施形態3の端末装置1では、カメラ14によって撮像された画像情報において口元が設定量以上の変動を行っていることが特定されたときを、音声入力の開始のタイミングとする。また、実施形態3の端末装置1では、音声入力の開始後、カメラ14によって撮像される画像情報において口元が設定量以上の変動を行っていないことが特定されたときを、音声入力の終了のタイミングとする。
そこで、実施形態3では、スピーカ12とマイク13との機能を、上下反転される前の状態に対して入れ替える。すなわち、実施形態3の端末装置1では、スピーカ12にて音声情報を取得するとともに、マイク13にて音声を出力するように制御する。スピーカ12およびマイク13のハードウェアの基本構成は同じである。従って、実施形態3では、スピーカ12およびマイク13の機能をソフトウェアによる制御によって変更する。そして、スピーカ12の振動板にて話者の音声に基づく振動を検出し音声信号を生成し、マイク13の振動板を振動させることで音声を出力する。
Claims (15)
- 話者の音声情報を取得する取得手段と、
前記話者の発話に関する動作を検出する検出手段と、
前記検出手段が前記動作を検出した後に前記取得手段が取得した前記音声情報に応じて音声指示を行う音声指示手段と、
を備える情報処理装置。 - 前記音声指示手段は、前記検出手段によって前記動作が検出されなくなった場合に、検出されなくなったときよりも以前に前記取得手段から取得した前記音声情報を用いて前記音声指示を行う請求項1に記載の情報処理装置。
- 前記検出手段は、本装置に対して発話を行う前記話者の画像に基づいて、前記動作を検出する請求項1に記載の情報処理装置。
- 前記検出手段は、前記話者の口元の画像を検出する請求項3に記載の情報処理装置。
- 前記検出手段は、前記話者の口元の動きを検出する請求項3に記載の情報処理装置。
- 前記検出手段は、本装置と前記話者との距離の変位に基づいて、前記動作を検出する請求項1に記載の情報処理装置。
- 前記検出手段は、予め定められた波長の光を用いて前記距離の変位を特定する請求項6に記載の情報処理装置。
- 前記検出手段は、前記話者を撮影した画像における被写体の大きさに基づいて前記距離の変位を特定する請求項6に記載の情報処理装置。
- 前記検出手段は、本装置が上下反転した状態にて、前記話者の口元の画像を撮像する請求項1に記載の情報処理装置。
- スピーカおよびマイクを備え、
前記取得手段として前記スピーカにより前記音声情報を取得し、前記マイクにて音を出力する請求項9に記載の情報処理装置。 - 前記音声指示手段は、本装置が上下反転された際に、前記音声指示のための前記取得手段からの前記音声情報の取得を開始する請求項9に記載の情報処理装置。
- 前記検出手段は、本装置の下側に設けられるカメラである請求項1に記載の情報処理装置。
- 話者の音声情報を取得する取得手段と、
前記話者の発話に関する動作を検出する検出手段と、
前記検出手段が検出する前記動作から特定される時期に前記取得手段が取得した前記音声情報に応じて音声指示を行う音声指示手段と、
を備える情報処理装置。 - 話者の音声情報を取得する取得手段と、
発話を行う前記話者の状態から当該話者の一連の発話の終了を特定し、前記取得手段が取得した前記音声情報に応じて音声指示を行う音声指示手段と、
を備える情報処理装置。 - 情報処理装置として機能するコンピュータに、
話者の音声情報を取得する機能と、
前記話者の発話に関する動作を検出する機能と、
前記動作を検出した後に取得した前記音声情報に応じて音声指示を行う機能と、
を実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131009A JP7056020B2 (ja) | 2017-07-04 | 2017-07-04 | 情報処理装置およびプログラム |
US15/915,713 US10685651B2 (en) | 2017-07-04 | 2018-03-08 | Information processing apparatus |
US16/870,415 US11682392B2 (en) | 2017-07-04 | 2020-05-08 | Information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131009A JP7056020B2 (ja) | 2017-07-04 | 2017-07-04 | 情報処理装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019015773A true JP2019015773A (ja) | 2019-01-31 |
JP7056020B2 JP7056020B2 (ja) | 2022-04-19 |
Family
ID=64903331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017131009A Active JP7056020B2 (ja) | 2017-07-04 | 2017-07-04 | 情報処理装置およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US10685651B2 (ja) |
JP (1) | JP7056020B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7056020B2 (ja) * | 2017-07-04 | 2022-04-19 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
CN110517685B (zh) * | 2019-09-25 | 2021-10-08 | 深圳追一科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006005440A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 通話送受信方法および通話端末 |
JP2006208751A (ja) * | 2005-01-28 | 2006-08-10 | Kyocera Corp | 発声内容認識装置 |
JP2010217754A (ja) * | 2009-03-18 | 2010-09-30 | Toshiba Corp | 音声入力装置、音声認識システム及び音声認識方法 |
JP2013025605A (ja) * | 2011-07-22 | 2013-02-04 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2014067203A (ja) * | 2012-09-26 | 2014-04-17 | Kyocera Corp | 電子機器、注視点検出プログラムおよび注視点検出方法 |
JP2014153663A (ja) * | 2013-02-13 | 2014-08-25 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
JP2015191391A (ja) * | 2014-03-28 | 2015-11-02 | 本田技研工業株式会社 | アルコールインタロックシステム |
JP2015191448A (ja) * | 2014-03-28 | 2015-11-02 | パナソニックIpマネジメント株式会社 | 端末装置および端末装置における音声操作制御方法 |
JP2016076007A (ja) * | 2014-10-03 | 2016-05-12 | 株式会社Nttドコモ | 対話装置および対話方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004000043A1 (de) * | 2004-11-17 | 2006-05-24 | Siemens Ag | Verfahren zur selektiven Aufnahme eines Schallsignals |
WO2009136356A1 (en) * | 2008-05-08 | 2009-11-12 | Koninklijke Philips Electronics N.V. | Localizing the position of a source of a voice signal |
JP2011018272A (ja) | 2009-07-10 | 2011-01-27 | Nec Casio Mobile Communications Ltd | 端末装置およびプログラム |
US9747900B2 (en) * | 2013-05-24 | 2017-08-29 | Google Technology Holdings LLC | Method and apparatus for using image data to aid voice recognition |
US20170186446A1 (en) * | 2015-12-24 | 2017-06-29 | Michal Wosk | Mouth proximity detection |
JP7056020B2 (ja) * | 2017-07-04 | 2022-04-19 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
-
2017
- 2017-07-04 JP JP2017131009A patent/JP7056020B2/ja active Active
-
2018
- 2018-03-08 US US15/915,713 patent/US10685651B2/en active Active
-
2020
- 2020-05-08 US US16/870,415 patent/US11682392B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006005440A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 通話送受信方法および通話端末 |
JP2006208751A (ja) * | 2005-01-28 | 2006-08-10 | Kyocera Corp | 発声内容認識装置 |
JP2010217754A (ja) * | 2009-03-18 | 2010-09-30 | Toshiba Corp | 音声入力装置、音声認識システム及び音声認識方法 |
JP2013025605A (ja) * | 2011-07-22 | 2013-02-04 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2014067203A (ja) * | 2012-09-26 | 2014-04-17 | Kyocera Corp | 電子機器、注視点検出プログラムおよび注視点検出方法 |
JP2014153663A (ja) * | 2013-02-13 | 2014-08-25 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
JP2015191391A (ja) * | 2014-03-28 | 2015-11-02 | 本田技研工業株式会社 | アルコールインタロックシステム |
JP2015191448A (ja) * | 2014-03-28 | 2015-11-02 | パナソニックIpマネジメント株式会社 | 端末装置および端末装置における音声操作制御方法 |
JP2016076007A (ja) * | 2014-10-03 | 2016-05-12 | 株式会社Nttドコモ | 対話装置および対話方法 |
Also Published As
Publication number | Publication date |
---|---|
US10685651B2 (en) | 2020-06-16 |
US11682392B2 (en) | 2023-06-20 |
US20190013022A1 (en) | 2019-01-10 |
US20200273459A1 (en) | 2020-08-27 |
JP7056020B2 (ja) | 2022-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190122692A1 (en) | Voice trigger for a digital assistant | |
WO2019214361A1 (zh) | 语音信号中关键词的检测方法、装置、终端及存储介质 | |
US9633669B2 (en) | Smart circular audio buffer | |
US9031847B2 (en) | Voice-controlled camera operations | |
CN110931048A (zh) | 语音端点检测方法、装置、计算机设备及存储介质 | |
CN110390953A (zh) | 啸叫语音信号的检测方法、装置、终端及存储介质 | |
JP7056020B2 (ja) | 情報処理装置およびプログラム | |
JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
KR20190090281A (ko) | 사운드를 제어하는 전자 장치 및 그 동작 방법 | |
JP2012230534A (ja) | 電子機器および電子機器の制御プログラム | |
JP2016156877A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20200056754A (ko) | 개인화 립 리딩 모델 생성 방법 및 장치 | |
CN114333821A (zh) | 电梯控制方法、装置、电子设备、存储介质及产品 | |
CN109102810B (zh) | 声纹识别方法和装置 | |
JP2016180778A (ja) | 情報処理システムおよび情報処理方法 | |
AU2022224773B2 (en) | Voice trigger for a digital assistant | |
KR102012774B1 (ko) | 휴대 단말기 및 그 동작 방법 | |
CN114049873A (zh) | 语音克隆方法、训练方法、装置和介质 | |
CN116189718A (zh) | 语音活性检测方法、装置、设备及存储介质 | |
TW201018191A (en) | System and method for testing shaking function of a mobile phone | |
JP2007249021A (ja) | 音声情報処理装置及び音声情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7056020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |