JP2014137430A - 電子機器及び掃除機 - Google Patents

電子機器及び掃除機 Download PDF

Info

Publication number
JP2014137430A
JP2014137430A JP2013005065A JP2013005065A JP2014137430A JP 2014137430 A JP2014137430 A JP 2014137430A JP 2013005065 A JP2013005065 A JP 2013005065A JP 2013005065 A JP2013005065 A JP 2013005065A JP 2014137430 A JP2014137430 A JP 2014137430A
Authority
JP
Japan
Prior art keywords
unit
voice
electronic device
word
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013005065A
Other languages
English (en)
Inventor
Kazunori Yasuda
一則 安田
Asami Yatake
麻美 箭竹
Kazuhiro Miki
一浩 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013005065A priority Critical patent/JP2014137430A/ja
Priority to KR1020157016096A priority patent/KR101707359B1/ko
Priority to PCT/JP2013/082441 priority patent/WO2014112226A1/ja
Priority to US14/652,177 priority patent/US20150332675A1/en
Priority to EP13871591.7A priority patent/EP2947651B1/en
Priority to CN201380066048.6A priority patent/CN104871239B/zh
Publication of JP2014137430A publication Critical patent/JP2014137430A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2842Suction motors or blowers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2847Surface treating elements
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Abstract

【課題】 ユーザの発した音声を音声認識する際に、ユーザに対して適切に聞き返しを行うことが可能な電子機器等を提供する。
【解決手段】 入力された音声を音声データに変換する音声入力手段と、音声データを解析することで、該音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する音声認識手段と、確信度に基づいて、ユーザに対する聞き返しの要否を決定する反応決定手段と、聞き返しを行う聞き返し手段とを備え、反応決定手段は、第2の閾値以上で第1の閾値未満の場合に聞き返しを行う決定をし、確信度が第2の閾値未満の場合に聞き返しを行わない決定をする。
【選択図】 図4

Description

本発明は、電子機器等に係り、特に音声認識手段を備えた電子機器等に関する。
従来より、電子機器に対して各種動作の指示入力を行うユーザ・インターフェースとして、操作ボタンやリモコン等が用いられている。また、近年、ユーザが発した音声によって指示入力を行う為の音声認識手段を備えた電子機器が開発されている。
ここで、音声認識手段を利用した指示入力を行う場合、ユーザが発した音声を電子機器が誤認識する可能性がある。そして、電子機器がユーザの発した音声を誤認識した場合、電子機器は、誤認識した結果に基づいて各種動作を行うこととなり、誤動作のおそれがある。そこで、音声認識手段を備える電子機器の誤認識を防止する技術が開発されている。例えば、特許文献1には、音声を上手く認識できなかった場合、音声を発したユーザに聞き返しを行う音声認識装置が記載されている。
図10は、特許文献1に記載の音声認識装置301が備えるコントローラ302の主な構成を示すブロック図である。音声認識装置301は、音声が入力されるマイクロホン303、音声認識した単語の確信度を算出する確信度算出部304、確信度算出部304が算出した単語の確信度に基づいて対話者が話しかけた文章を特定する文章特定部305、及び特定された文章に含まれる単語の確信度に基づいて、対話者への聞き返しの要否を判断する第1聞き返し判定部306を備えている。そして、第1聞き返し判定部306は、単語の確信度が所定の閾値以上の場合、聞き返しは不要と判断すると共に、単語の確信度が所定の閾値に満たない場合、ユーザに対してもっとはっきりと話すことを促す旨の聞き返しが必要と判断する。
特開2008−52178号公報(平成20年3月6日公開)
しかしながら、特許文献1に記載の音声認識装置301では、単語の確信度が所定の閾値に満たないと必ず何らかの聞き返しを行うものであるため、音声認識装置301が騒がしい場所で利用された場合には、ユーザが実際には音声を発していないのに、ユーザの発した音声以外の騒音に対しても音声認識装置301が聞き返しを行うことが考えられる。そして、その場合には、無駄な聞き返しをユーザが煩わしく感じることがあり、ひいては、音声認識機能に対するユーザの信頼性を損ねるおそれがあった。
本願発明は、上記の事情に鑑みてなされたものであり、その目的は、ユーザの発した音声を音声認識する際に、ユーザに対して適切に聞き返しを行うことが可能な電子機器等を提供することにある。
本発明に係る電子機器は、入力された音声を音声データに変換する音声入力手段と、音声データを解析することで、該音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する音声認識手段と、確信度に基づいて、ユーザに対する聞き返しの要否を決定する反応決定手段と、聞き返しを行う聞き返し手段とを備え、反応決定手段は、確信度が第2の閾値以上で第1の閾値未満の場合に聞き返しを行う決定をし、確信度が第2の閾値未満の場合に聞き返しを行わない決定をする。
本発明によれば、ユーザの発した音声を音声認識する際に、ユーザに対して適切に聞き返しを行うことが可能な電子機器等を提供することができる。
本発明の実施形態1に係る電子機器1の斜視図である。 本発明の実施形態1に係る電子機器1の底面図である。 本発明の実施形態1に係る電子機器1の主な構成を示すブロック図である。 本発明の実施形態1に係る電子機器1が行う音声認識の処理の流れを示すフローチャートである。 本発明の実施形態1に係る電子機器1が行う聞き返しの具体例を示す模式図である。 本発明の実施形態2に係る電子機器1が行う音声認識の処理の流れを示すフローチャートである。 本発明の実施形態2に係る電子機器1が行う聞き返しの具体例を示す模式図である。 本発明の実施形態3に係る電子機器1a及び外部装置200の主な構成を示すブロック図である。 本発明の実施形態3に係る電子機器1aが行う音声認識の処理の流れを示すフローチャートである。 特許文献1に記載の音声認識装置301が備えるコントローラ302の主な構成を示すブロック図である。
[実施形態1]
本発明の実施形態1に係る電子機器1について、以下に説明する。
電子機器1は、走行部及び送風部を備え、該走行部によって床面を自走すると共に、該送風部によって発生する気流で床面の塵埃を吸引して掃除を行う掃除機である。
また、電子機器1は、音声認識部を備えており、ユーザの発した音声を音声認識して、該音声に含まれる指示に基づいて各種反応を行う。例えば、ユーザの発した音声に「掃除して」が含まれている場合、電子機器1は、走行部及び送風部を制御することで所定の掃除動作を行う。
また、電子機器1は、音声認識に際して、ユーザに対する聞き返しが必要と判断した場合、聞き返しを行う。ここで、聞き返しとは、ユーザに対して再度音声を発することを促すものである。聞き返しは、例えば、音声及び/又は動作によって行われる。
電子機器1の具体的な構造について、図面を参照して以下に説明する。
(電子機器1の構造)
図1は、電子機器1の斜視図である。ここで、電子機器1が自走して掃除を行う際の進行方向を前方とし、図1に矢印で示す。また、進行方向と逆方向を後方とする。
電子機器1は、平面視で円形の筐体2を備えている。筐体2の上面2aには、塵埃が除去された空気が排気される排気口2b及び電子機器1に対して指示入力を行うパネル操作部4が設けられている。
パネル操作部4は、電子機器1に対して各種の指示入力を行う操作部及び各種情報を表示する表示部を備えている。操作部には複数の操作ボタンが設けられている。ユーザは、操作部を介した指示入力及び音声認識による指示入力を併用することができる。
また、筐体2の上面2aの前方側には、充電台からの帰還信号を受信する帰還信号受信部5が設けられている。そして、電子機器1は、例えば床面の掃除が終了したと判断した場合に、該帰還信号を帰還信号受信部5を介して受信することで自律的に充電台に帰還することができるように構成されている。
筐体2の側面2cは、前後方向に二分割されている。側面2cの前方部は、筐体2のその他の部分に対して前後方向に摺動可能に構成されており、電子機器1が障害物に衝突したときの緩衝部材として機能する。
また、筐体2の側面2cには、音声出力部31が設けられている。音声出力部31は、例えば音声又は音楽等の音を出力するものである。音声出力部31は、例えばスピーカ等から構成されている。音声出力部31は、本発明に係る聞き返し手段の一例である。電子機器1の底面には、サイドブラシ34bが筐体2からはみ出すように設けられている。サイドブラシ34bについては、後で詳述する。
図2は、電子機器1の底面図である。図2においても、電子機器1が自走して掃除を行う際の進行方向を矢印で示している。筐体2の底面2dには、床面の塵埃を吸い込む為の吸込み口2eが凹接されている。また、筐体2の底面2dには、走行部32、掃除ブラシ部34、前輪6a及び後輪6bが設けられている。
走行部32は、電子機器1を走行させる部分である。走行部32は、例えば底面2dから突出するように設けられた駆動輪、及び該駆動輪を駆動するモータ等から構成される。なお、図2においては、走行部32の内、底面2dから突出した駆動輪の一部を示している。走行部32は、本発明に係る走行手段の一例である。
掃除ブラシ部34は、床面を掃いて掃除する部分である。掃除ブラシ部34は、例えば床面を掃くブラシ及びブラシを駆動するモータ等からなる。例えば、ブラシとしては、吸込み口2eに設けられ、床面と平行に軸支された回転軸で回転する回転ブラシ34a、及び底面2dの斜め前方の両側に筐体2からはみ出すように設けられ、床面と垂直に軸支された回転軸で回転するサイドブラシ34bを用いることができる。
前輪6a及び後輪6bは、走行部32の走行に従動する従動輪である。
次に、電子機器1の構成について説明する。なお、図1又は2において説明した構成については、同じ符号を付して説明を省略する。
(電子機器1の構成)
図3は、電子機器1の主な構成を示すブロック図である。電子機器1は、音声入力部3及び送風部33を備えている。
音声入力部3は、音声が入力されると共に、入力された音声をデジタル変換して、音声データを生成する部分である。音声入力部3は、例えばマイクロフォン等及びアナログ/デジタル変換装置等から構成される。マイクロフォンとしては、所定の方向から到来する音声を、特に感度良く集音する指向性マイクロフォンを用いてもよく、音声が到来する方向に関係なく一定の感度で音声を集音する無指向性のマイクロフォンを用いてもよい。音声入力部3は、例えば筐体2の上面2aの裏側に設けることができる。
送風部33は、塵埃を吸引する為の気流を発生させるものである。発生した気流は、吸込み口2eから図示しない集塵部に導かれ、集塵部によって塵埃が分離された後、排気口2bから電子機器1の機外に排出される。
電子機器1は、記憶部20をさらに備えている。以下において記憶部20について詳細に説明する。
(記憶部20の構成)
記憶部20は、後述する制御部10が実行する各種プログラム、各種プログラムを実行する際に使用及び作成される各種データ並びに電子機器1に入力される各種データ等などを記憶するものである。記憶部20は、例えば、ROM(Read Only Memory)、フラッシュメモリ又はHDD(Hard Disk Drive)等の不揮発性記憶装置及び作業領域を構成するRAM(Random Access Memory)等の揮発性記憶装置から構成されている。
記憶部20は、音響特徴記憶部21、辞書記憶部22及び文法記憶部23を備えている。
音響特徴記憶部21は、音声認識する音声の音響的な特徴を示す音響特徴を記憶している部分である。音響特徴の種類は、適宜選択することができる。音響特徴は、例えば、音声波形又は音声のパワーの周波数スペクトル等である。後で詳述するが、音声認識部11は、音声入力部3で生成された音声データに含まれる音響特徴と、音響特徴記憶部21に記憶されている音響特徴とを比較することでユーザの発した音声を音声認識する。
辞書記憶部22は、音声認識対象の各単語及び該単語に関する音韻情報等が登録された辞書を記憶している部分である。
文法記憶部23は、辞書記憶部22の辞書に登録されている各単語がどのように連鎖するかを記述した文法規則を記憶している部分である。文法規則は、例えば、統計的に求められた各単語が連鎖する確率に基づくものである。
電子機器1は、制御部10をさらに備えている。以下において制御部10について詳細に説明する。
(制御部10の構成)
制御部10は、記憶部20に記憶されたプログラム又はデータに基づいて、電子機器1の各部を統括して制御するものである。プログラムが実行されることで、制御部10には、音声認識部11、反応決定部12、音声合成部13及び動作生成部14が構築される。
音声認識部11は、ユーザの発した音声について音声認識を行う部分である。音声認識部11は、音声認識の結果として、音声データに含まれる単語又は文章に関する情報、及び単語又は文章の確信度を出力する。音声認識部11は、音声区間検出部111、音響特徴抽出部112及び音響特徴比較部113を備えている。ここで、単語又は文章に関する情報には、例えば、該単語又は文章の音韻情報が含まれる。
音声区間検出部111は、音声認識する音声の開始及び終了を検出する部分である。音声区間検出部111は、音声が検出されていない場合には、音声入力部3で生成された音声データのパワーが、記憶部20に記憶されている所定の閾値以上か否かを監視する。そして、音声区間検出部111は、音声データのパワーが該閾値以上になった時点で音声が検出されたと判断する。また、音声区間検出部111は、音声データのパワーが該閾値未満になった時点で音声が終了したと判断する。
音響特徴抽出部112は、音声入力部3で生成された音声データについて、適当なフレームごとに音響特徴を抽出する部分である。
音響特徴比較部113は、音響特徴抽出部112が抽出した音響特徴と音響特徴記憶部21が記憶する音響特徴とを比較して、音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する部分である。音響特徴比較部113は、辞書記憶部22に記憶された辞書及び/又は文法記憶部23に記憶された文法規則を、必要に応じて参照することができる。音響特徴比較部113によって特定された単語又は文章及び該特定された単語又は文章の確信度に関する情報は、反応決定部12に出力される。
ここで、音響特徴比較部113が行う処理の具体例について説明する。音響特徴比較部113は、音響特徴抽出部112が抽出したフレームごとに、音声データから抽出された音響特徴と音響特徴記憶部21に記憶された音響特徴とを比較する。そして、音響特徴比較部113は、記憶部20に記憶された候補となる単語のそれぞれについて単語の確信度を算出すると共に、単語の確信度が最も高い単語を特定する。また、音響特徴比較部113は、辞書記憶部22に記憶されている辞書を参照して、特定した単語の音韻情報を取得する。
また、音響特徴抽出部112が複数のフレームを抽出した場合、音響特徴比較部113は、複数のフレームごとに決定された単語を適宜接続して文章を作成する。そして、音響特徴比較部113は、作成された文章ごとに文章の確信度を算出すると共に、文章の確信度が最も高い文章を特定する。ここで、音響特徴比較部113は、文法記憶部23に記憶されている文法規則を参照することで、文章の確信度を算出することができる。
反応決定部12は、音声認識部11から入力された音声認識の結果に基づいて、電子機器1の反応を決定する部分である。具体的には、反応決定部12は、特定された単語又は文章の確信度に基づいて、電子機器1の反応を決定する。すなわち、特定された単語又は文章の確信度が、音声認識の結果に曖昧さがない程高い場合には、反応決定部12は、単語又は文章に対応する反応を行うことを決定する。また、音声認識された単語又は文章の確信度が、音声認識の結果に曖昧さがある程度の場合には、反応決定部12は、聞き返しを行うことを決定する。さらに、音声認識された単語又は文章の確信度が、さらに低い場合には、反応決定部12は、単語又は文章に対応する反応及び聞き返しのいずれも実施しないことを決定する。
音声合成部13は、反応決定部12によって決定された反応に対応する音声データを合成する部分である。音声合成部13は、合成した音声データを音声出力部31に出力する。音声合成部13は、辞書記憶部22に記憶された辞書及び/又は文法記憶部23に記憶された文法規則を、必要に応じて参照することができる。
動作生成部14は、反応決定部12によって決定された反応に対応する動作パターンを生成する部分である。動作生成部14は、生成した動作パターンを走行部32、送風部33及び/又は掃除ブラシ部34に出力する。
次に、電子機器1が行う音声認識の処理の流れ及び効果について説明する。
(処理の流れ及び効果)
以下に示す処理は、電子機器1の制御部10が、記憶部20に記憶されたプログラムを実行することでなされる。
図4は、電子機器1が行う音声認識の処理の流れを示すフローチャートである。なお、図4及びそれ以降で説明するフローチャートにおいて、「ステップ」を「S」で表す。また、文中でも「S」は「ステップ」を表している。
まず、音声区間検出部111は、音声入力部3から入力される音声データを監視して、音声認識する音声が検出されたか否かを判断する(S1)。
音声が検出された場合(S1でYESの場合)、音響特徴抽出部112は、音声入力部3から入力された音声データについて、適当なフレームごとに音響的な特徴を示す音響特徴を抽出する(S2)。一方、音声が検出されていない場合(S1でNOの場合)、音声区間検出部111は、音声入力部3から入力される音声データの監視を継続する。
次に、音響特徴比較部113は、音響特徴抽出部112が抽出した音響特徴と、音響特徴記憶部21が記憶する音響特徴とを比較して、音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する(S3)。
音声区間検出部111は、音声入力部3から入力された音声データを監視して、音声認識する音声が終了したか否かを判断する(S4)。音声の終了が検出されていない場合(S4でNOの場合)、音声区間検出部111は、音声入力部3から入力される音声データの監視を継続する。なお、ここで、音声区間検出部111が新たな音声を検出した場合、音声認識部11は、先に検出された音声に対して算出された確信度を反応決定部12に出力してもよく、後に検出された音声に対して算出された確信度を反応決定部12に出力してもよく、又は、先に検出された音声に対して算出された確信度及び後に検出された音声に対して算出された確信度を反応決定部12に出力してもよい。
音声の終了が検出された場合(S4でYESの場合)、反応決定部12は、音響特徴比較部113によって特定された単語又は文章の確信度が第1の閾値以上か否かを判断する(S5)。そして、単語又は文章の確信度が第1の閾値以上の場合、反応決定部12は、音声認識した単語又は文章に対応する反応を行うことを決定し、音声合成部13及び動作生成部14を介して、該反応を行う(S6)。
音響特徴比較部113によって特定された単語又は文章の確信度が第1の閾値未満の場合(S5でNOの場合)、反応決定部12は、単語又は文章の確信度が第2の閾値以上か否かを判断する(S7)。そして、単語又は文章の確信度が第2の閾値以上の場合(S7でYESの場合)、反応決定部12は、聞き返しを行うことを決定し、音声合成部13及び動作生成部14を介して、聞き返しを行う(S8)。一方、単語又は文章の確信度が第2の閾値未満の場合(S7でNOの場合)、反応決定部12は、単語又は文章に対応する反応及び聞き返しのいずれも実施しないことを決定して、処理を終了する。なお、第2の閾値は、第1の閾値よりも小さい値である。
図5は、電子機器1が行う聞き返しの具体例を示す模式図であり、(a)は、音声で聞き返しを行う場合、(b)は、動作で聞き返しを行う場合、(c)は、音声及び動作で聞き返しを行う場合を示している。
音声で聞き返しを行う場合、音声合成部13は、例えば、「何て言った?」に対応する音声データを合成し、音声出力部31に出力する。音声出力部31は、入力された音声データをアナログ変換して、「何て言った?」を音声出力する。
動作で聞き返しを行う場合、動作生成部14は、例えば、電子機器1をその場で左右に一定角度ずつ回転させる動作パターンを生成し、走行部32を該動作パターンにて走行するように制御する。
以上のように構成される電子機器1においては、音声認識部11によって特定された単語又は文章の確信度が第1の閾値以下であり、且つ、第2の閾値以上である場合に、電子機器1がユーザに対して聞き返しを行う。したがって、電子機器1は、単語又は文章の確信度に曖昧さがある場合には、聞き返しを行うことで誤認識を防ぐと共に、単語又は文章の確信度がさらに低い場合には、聞き返しを行わないこととすることで、無用な聞き返しを減少させることができる。
なお、本実施形態の電子機器1では、所定の範囲の確信度にて、単語又は文章が一度でも音声認識されれば、電子機器1が聞き返しを行う場合について説明したが、これだけに限定されない。例えば、電子機器1は、所定の範囲の確信度にて、単語又は文章が複数度、且つ連続して音声認識されたときに聞き返しを行うようにしてもよい。このように電子機器1を構成することによって、無用な聞き返しをさらに減少させることができる。
[実施形態2]
本発明の実施形態2に係る電子機器1について、図面を参照して説明する。本発明に係る電子機器1は、音声認識部11が音声認識した単語又は文章の確信度に基づいて異なった聞き返しを行う点で上述の実施形態と異なる。なお、実施形態1で説明した構成要素については、実施形態1と同じ機能を有するものとし、特に記載する場合を除いて説明を省略する。
図6は、電子機器1が行う音声認識の処理の流れを示すフローチャートである。なお、実施形態1で説明したステップについては、実施形態1と同じ機能を有するものとし、特に記載する場合を除いて説明を省略する。
音声認識部11が算出した単語又は文章の確信度が第1の閾値未満の場合(S5でNOの場合)、反応決定部12は、単語又は文章の確信度が第3の閾値以上か否かを判断する(S11)。そして、単語又は文章の確信度が第3の閾値以上の場合(S11でYESの場合)、反応決定部12は、第1の聞き返しを行うことを決定し、音声合成部13及び動作生成部14を介して、該反応を行う(S12)。なお、第3の閾値は、第1の閾値よりも小さい値である。
音声認識部11が算出した単語又は文章の確信度が第3の閾値未満の場合(S11でNOの場合)、反応決定部12は、単語又は文章の確信度が第4の閾値以上か否かを判断する(S13)。そして、単語又は文章の確信度が第4の閾値以上の場合(S13でYESの場合)、反応決定部12は、第2の聞き返しを行うことを決定し、音声合成部13及び動作生成部14を介して、該反応を行う(S14)。なお、第4の閾値は、第3の閾値よりも小さい値である。
音声認識部11が算出した単語又は文章の確信度が第4の閾値未満の場合(S13でNOの場合)、反応決定部12は、音声認識した単語又は文章に対応する反応及び聞き返しのいずれも実施しないことを決定して、処理を終了する。
図7は、電子機器1が行う聞き返しの具体例を示す模式図であり、(a)は、第1の聞き返しを行う場合、(b)は第2の聞き返しを行う場合を示している。
第1の聞き返しを行う場合、音声合成部13は、例えば、「掃除してって言った?」に対応する音声データを合成し、音声出力部31に出力する。音声合成部31は、入力された音声データをアナログ変換して、「掃除してって言った?」を音声出力する。
本実施形態においては、第1の聞き返しの音声は、音声認識部11にて特定された最も確信度の高い単語又は文章に基づいて音声合成される。例えば、最も確信度の高い文章が、「掃除して」である場合、反応決定部12は、該文章に基づいて「掃除してって言った?」と聞き返しを行うことを決定する。
第2の聞き返しを行う場合、音声合成部13は、「何て言った?」に対応する音声データを合成し、音声出力部31に出力する。音声合成部31は、入力された音声データをアナログ変換して、「何て言った?」を音声出力する。
以上のように構成される電子機器1においては、音声認識部11が音声認識した単語又は文章の確信度に基づいて電子機器1が異なった聞き返しを行う。したがって、ユーザは、聞き返しの音声及び/又は動作から電子機器1がどの程度音声認識しているかを知ることができるので、例えば、再度音声で指示入力を行うか、又は、パネル操作部4等を介して指示入力をするか等を選択することができ、ユーザの利便性が向上する。
[実施形態3]
本発明の実施形態3に係る電子機器1aについて、図面を参照して説明する。本発明に係る電子機器1aは、外部装置200と通信を行う通信部6を備え、外部装置200と通信を行うことで、ユーザが発した音声の音声認識処理を、外部装置200でも行う点で上述の実施形態のいずれとも異なる。なお、実施形態1で説明した構成要素については、実施形態1と同じ機能を有するものとし、特に記載する場合を除いて説明を省略する。
(電子機器1a及び外部装置200の構成)
図8は、電子機器1a及び外部装置200の主な構成を示すブロック図である。電子機器1aは、実施形態1で説明した構成要素に加えて、通信部6をさらに備えている。なお、図8においては、実施形態1で説明した構成要素の内一部のみを示している。
通信部6は、外部装置200との間で情報の送受信を行うものである。通信部6は、通信網300に接続されており、通信網300を介して、外部装置200と接続されている。
通信網300は、限定されるものではなく、適宜選択することができる。通信網300は、例えば、インターネットを用いることができる。また、通信網300は、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、WiFi(登録商標)又はIEEE802.11等の無線を用いてもよい。
反応決定部12aは、音声認識部11から入力される音声認識の結果、及び後述する外部装置200の音声認識部11aから受信した音声認識の結果に基づいて、電子機器1aの反応を決定する部分である。
外部装置200は、通信部206、記憶部220及び制御部210を備えている。通信部206は、電子機器1aとの間で情報の送受信を行うものである。通信部206は、通信網300に接続されており、通信網300を介して、電子機器1aと接続されている。
記憶部220は、後述する制御部210が実行する各種プログラム、各種プログラムを実行する際に使用及び作成される各種データ並びに外部装置200に入力される各種データ等を記憶するものである。記憶部220は、例えば、ROM、フラッシュメモリ、HDD等の不揮発性記憶装置及び作業領域を構成するRAM等の揮発性記憶装置から構成されている。
記憶部220は、音響特徴記憶部21a、辞書記憶部22a及び文法記憶部23aを備えている。音響特徴記憶部21aは、上述した音響特徴記憶部21と同様のデータを記憶するものである。辞書記憶部22aは、上述した辞書記憶部22と同様のデータを記憶するものである。文法記憶部23aは、上述した文法記憶部23と同様のデータを記憶するものである。
制御部210は、記憶部220に記憶されたプログラム又はデータに基づいて、外部装置200の各部を統括して制御するものである。プログラムが実行されることで、制御部210には、音声認識部11aが構築される。
音声認識部11aは、音声区間検出部111a、音響特徴抽出部112a及び音響特徴比較部113aを備えている。音声区間検出部111aは、上述した音声区間検出部111と同様の機能を有するものである。音響特徴抽出部112aは、上述した音響特徴抽出部112と同様の機能を有するものである。音響特徴比較部113aは、上述した音響特徴比較部113と同様の機能を有するものである。
次に、電子機器1aが行う音声認識の処理の流れ及び効果について説明する。
(処理の流れ及び効果)
以下に示す処理は、電子機器1aの制御部10が、記憶部20に記憶されたプログラムを実行することでなされる。
図9は、電子機器1aが行う音声認識の処理の流れを示すフローチャートである。なお、実施形態1で説明したステップについては、実施形態1と同じ機能を有するものとし、特に記載する場合を除いて説明を省略する。
音声認識部11aが算出した単語又は文章の確信度が第1の閾値未満の場合(S5でNOの場合)、制御部10は、通信部6を介して、音声入力部3から入力された音声データを外部装置200に送信する(S21)。
外部装置200では、音声認識部11aが、図4及び図6に示すS2及びS3と同様の処理で音声認識を行うことにより、音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する。そして、制御部210は、通信部206を介して、特定した単語又は文章に関する情報、及び該特定された単語又は文章の確信度を、電子機器1aに対して送信する。電子機器1aは、外部装置200から該情報を受信する(S22)。
反応決定部12aは、外部装置200から受信した単語又は文章の確信度が第1の閾値以上か否かを判断する(S23)。そして、単語又は文章の確信度が第1の閾値以上の場合(S23でYESの場合)、反応決定部12aは、音声認識した単語又は文章に対応する反応を行うことを決定し、音声合成部13及び動作生成部14を介して、該反応を行う(S6)。
外部装置200から受信した単語又は文章の確信度が第1の閾値未満の場合(S23でNOの場合)、反応決定部12aは、単語又は文章の確信度が第2の閾値以上か否かを判断する(S24)。そして、単語又は文章の確信度が第2の閾値以上の場合(S24でYESの場合)、反応決定部12aは、聞き返しを行うことを決定し、音声合成部13及び動作生成部14を介して、該反応を行う(S8)。一方、単語又は文章の確信度が第2の閾値未満の場合(S24でNOの場合)、反応決定部12aは、音声認識した単語又は文章に対応する反応及び聞き返しのいずれも実施しないことを決定して、処理を終了する。
以上のように構成される電子機器1aにおいては、電子機器1aにて算出された単語又は文章の確信度が第1の閾値以下の場合、電子機器1aは、外部装置200にて算出された単語又は文章の確信度に関する情報を受信すると共に、受信した情報に基づいて、再度、単語又は文章の確信度が第1の閾値以下であるか否かを判断する。したがって、電子機器1aは、電子機器1aにて行った音声認識の結果に曖昧さがある場合、すぐに聞き返しを行うことなく、外部装置200を介して再度音声認識を行うので、無用な聞き返しを減少させることができる。
なお、外部装置200においては、記憶部220に記憶されている音響特徴、辞書及び/又は文法規則のデータ数を、電子機器1aに記憶されているデータ数よりも多くすることができる。その場合には、電子機器1aでのみ音声認識を行う場合に比べて、音声認識の精度を向上させることができる。
[その他の実施形態]
上述の実施形態においては、音声認識部11によって特定された単語又は文章の確信度が所定の範囲に含まれる時、電子機器1がユーザに対して聞き返しを行う場合について説明したが、特定された単語又は文章の確信度が所定の範囲に含まれる時でも、所定の条件を満たす時には、電子機器1は、聞き返しを行わないように構成されてもよい。
ここで、所定の条件を満たす時とは、例えば、電子機器1が走行部32、送風部33及び/又は掃除ブラシ部34を駆動している時である。電子機器1が走行部32、送風部33及び/又は掃除ブラシ部34を駆動すると、該走行部32、送風部33及び/又は掃除ブラシ部34によって騒音が発生することとなり、その場合には、音声認識の精度が低くなるので、無用な聞き返しを防ぐために、聞き返しを行わないことすることができる。
また、所定の条件を満たす時とは、例えば、夜間等の所定の時間帯である。夜間等の所定の時間帯においては、電子機器1が聞き返しを行わないこととすることで、ユーザが聞き返しを煩わしく感じることを防ぐことができる。
上述の実施形態においては、電子機器1は、音声認識部11によって特定された単語又は文章の確信度と所定の第1の閾値乃至第4の閾値とを比較することで、聞き返しの要否を判断する場合について説明したが、電子機器1は、音声認識を行う条件、又は特定された単語若しくは文章の内容等に応じて第1の閾値1乃至第4の閾値を変更するように構成されてもよい。
電子機器1は、例えば、電子機器1が走行部32、送風部33及び/又は掃除ブラシ部34を駆動している場合、走行部32、送風部33及び/又は掃除ブラシ部34を駆動していない場合に比べて第2の閾値を低い値又は高い値とすることができる。ここで、第2の閾値を低い値とするか、高い値とするかは、電子機器1の種類又は使用環境等に応じて適宜選択すればよい。
走行部32、送風部33及び/又は掃除ブラシ部34の駆動中は、第2の閾値を低い値とする場合、走行部32、送風部33及び/又は掃除ブラシ部34を駆動することで騒音が発生し、該騒音によって電子機器1で算出される単語又は文章の確信度が低くなっても、ユーザに対して聞き返しを行うことができる。
走行部32、送風部33及び/又は掃除ブラシ部34の駆動中は、第2の閾値を高い値とする場合、走行部32、送風部33及び/又は掃除ブラシ部34を駆動することで騒音が発生し、該騒音によって音声認識の精度が低下した時には、より高い閾値にて聞き返しの要否を判断するので、無用な聞き返しを減少させることができる。
また、電子機器1は、例えば、特定された単語又は文章の内容が電子機器1の動作を伴うものである場合、動作を伴わないものである場合に比べて第1の閾値を高い値とすることができる。このように電子機器1を構成した場合、特に誤認識を防ぐ必要が高い動作を伴う音声指示に対する誤認識を防止することができる。
上述の実施形態においては、電子機器1aが通信部6を介して、外部装置200にて特定された単語又は文章、及び単語又は文章の確信度に関する情報を受信する場合について説明したが、それだけに限定されない。
電子機器1aは、例えば、音声認識処理において参照される音響特徴、辞書及び/又は文法規則に関する情報を、外部装置200から受信してもよい。このように電子機器1aを構成した場合、電子機器1aにて音声認識することができる単語又は文章の数を増加させることができる。
また、電子機器1aは、例えば、音声出力部31から出力する音声に対応する音声データを、外部装置200から受信してもよい。このように電子機器1aを構成した場合、ユーザは、音声出力部31から出力する音声を変更することができる。
なお、受信する情報は、ユーザが外部装置200によって作成してもよい。具体的には、ユーザは、例えばスマートフォン等の端末装置を介して、外部装置200にアクセスすることで、外部装置200に対して、例えば所望の辞書又は音声データ等の情報を作成するように指示する。外部装置200の制御部210は、記憶部220に記憶されたプログラム又はデータに基づいて該情報を生成する。ユーザが所望の音声データを作成する場合、ユーザは自ら録音した音声データ、インターネット等を介して取得した音声データ、又は音楽CD等の音楽データ等の各種既存の音データを用いることができる。
また、作成した情報は、該情報が記憶された記録媒体を電子機器1に供給することによって電子機器1に提供してもよい。ここで、記録媒体は、特に限定されない。記録媒体は、例えば、磁気テープ等のテープ、HDD等の磁気ディスク、CD−ROM等の光ディスク、ICカード等のカード、フラッシュROM等の半導体メモリ又はPLD(Programmable logic device)等の論理回路等を用いることができる。
上述の実施形態においては、電子機器として、掃除機について説明したが、それだけに限定されない。電子機器は、TV若しくはPC(Personal Computer)等のAVC機器又は電子調理器若しくは空気調和機等の家電機器等でもよい。
以上説明したように、電子機器は、入力された音声を音声データに変換する音声入力手段と、音声データを解析することで、該音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する音声認識手段と、確信度に基づいて、ユーザに対する聞き返しの要否を決定する反応決定手段と、聞き返しを行う聞き返し手段とを備え、反応決定手段は、確信度が第2の閾値以上で第1の閾値未満の場合に聞き返しを行う決定をし、確信度が前記第2の閾値未満の場合に聞き返しを行わない決定をする。
このように電子機器を構成することによって、単語又は文章の確信度に曖昧さがある場合には、聞き返しを行うことで誤認識を防ぐと共に、単語又は文章の確信度がさらに低い場合には、聞き返しを行わないこととすることで、無用な聞き返しを減少させることができる。
また、反応決定手段は、前記確信度に基づいて複数の聞き返しを選択してもよい。
このように電子機器を構成することによって、ユーザは、聞き返しの音声及び/又は動作から電子機器がどの程度音声認識しているかを知ることができるので、例えば、再度音声で指示入力を行うか、又は、パネル操作部等を介して指示入力を行うかを選択することができ、ユーザの利便性が向上する。
また、電子機器は、音声データを外部装置に対して送信すると共に、該音声データに含まれる単語又は文章の確信度を該外部装置から受信する通信手段をさらに備えてもよい。
このように電子機器を構成することによって、電子機器は、電子機器にて行った音声認識の結果に曖昧さがある場合、すぐに聞き返しを行うことなく、外部装置を介して再度音声認識を行うので、無用な聞き返しを減少させることができる。
また、聞き返し手段は、所定の音声及び/又は動作を行うことで聞き返しを行ってもよい。
また、掃除機は、前記電子機器のいずれかと、電子機器を自走させる為の自走手段、塵埃を吸引する為の送風手段及び/又は床面を掃いて掃除する為の掃除ブラシ手段とを備えてもよい。
このように掃除機を構成することによって、掃除機は、自走手段、送風手段及び/又は掃除ブラシ手段の駆動等によって、騒がしい状況で使用されることが多い掃除機において、単語又は文章の確信度に曖昧さがある場合には、聞き返しを行うことで誤認識を防ぐと共に、単語又は文章の確信度がさらに低い場合には、聞き返しを行わないこととするので、無用な聞き返しを減少させることができる。
また、反応決定手段は、自走手段、送風手段及び/又は掃除ブラシ手段の駆動中は、第2の閾値を変更してもよい。
このように掃除機を構成することによって、掃除機は、確信度と騒がしい状況に合わせて変更された第2閾値とを比較することで聞き返しの要否を判断するので、騒がしい状況にあっても、より適切に聞き返しを行うことができる。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明に係る電子機器は、音声認識手段を備えた電子機器等に広く利用可能である。
1、1a 電子機器
2 筐体
2a 上面
2b 排気口
2c 側面
2d 底面
2e 吸込み口
3 音声入力部
6 通信部
10 制御部
11、11a 音声認識部
111、111a 音声区間検出部
112、112a 音響特徴抽出部
113、113a 音響特徴比較部
12 反応決定部
13 音声合成部
14 動作生成部
20 記憶部
21、21a 音響特徴記憶部
22、22a 辞書記憶部
23、23a 文法記憶部
31 音声出力部
32 走行部
33 送風部
34 掃除ブラシ部
200 外部装置
206 通信部
210 制御部
220 記憶部

Claims (5)

  1. 入力された音声を音声データに変換する音声入力手段と、
    前記音声データを解析することで、該音声データに含まれる単語又は文章を特定すると共に、該特定された単語又は文章の確信度を算出する音声認識手段と、
    前記確信度に基づいて、ユーザに対する聞き返しの要否を決定する反応決定手段と、
    前記聞き返しを行う聞き返し手段とを備え、
    前記反応決定手段は、前記確信度が第2の閾値以上で第1の閾値未満の場合に聞き返しを行う決定をし、前記確信度が前記第2の閾値未満の場合に聞き返しを行わない決定をする
    ことを特徴とする電子機器。
  2. 前記反応決定手段は、前記確信度に基づいて複数の聞き返しを選択することを特徴とする請求項1に記載の電子機器。
  3. 前記音声データを外部装置に対して送信すると共に、該音声データに含まれる単語又は文章の確信度を該外部装置から受信する通信手段をさらに備える
    ことを特徴とする請求項1又は2に記載の電子機器。
  4. 請求項1から3のいずれか1項に記載の電子機器と、
    前記電子機器を自走させる為の自走手段、塵埃を吸引する為の送風手段及び/又は床面を掃いて掃除する為の掃除ブラシ手段とを備えることを特徴とする掃除機。
  5. 前記反応決定手段は、前記自走手段、前記送風手段及び/又は前記掃除ブラシ手段の駆動中は、前記第2の閾値を変更する
    ことを特徴とする請求項4に記載の掃除機。
JP2013005065A 2013-01-16 2013-01-16 電子機器及び掃除機 Pending JP2014137430A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013005065A JP2014137430A (ja) 2013-01-16 2013-01-16 電子機器及び掃除機
KR1020157016096A KR101707359B1 (ko) 2013-01-16 2013-12-03 전자 기기 및 청소기
PCT/JP2013/082441 WO2014112226A1 (ja) 2013-01-16 2013-12-03 電子機器及び掃除機
US14/652,177 US20150332675A1 (en) 2013-01-16 2013-12-03 Electronic apparatus and vacuum cleaner
EP13871591.7A EP2947651B1 (en) 2013-01-16 2013-12-03 Vacuum cleaner
CN201380066048.6A CN104871239B (zh) 2013-01-16 2013-12-03 电子设备和吸尘器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013005065A JP2014137430A (ja) 2013-01-16 2013-01-16 電子機器及び掃除機

Publications (1)

Publication Number Publication Date
JP2014137430A true JP2014137430A (ja) 2014-07-28

Family

ID=51209336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013005065A Pending JP2014137430A (ja) 2013-01-16 2013-01-16 電子機器及び掃除機

Country Status (6)

Country Link
US (1) US20150332675A1 (ja)
EP (1) EP2947651B1 (ja)
JP (1) JP2014137430A (ja)
KR (1) KR101707359B1 (ja)
CN (1) CN104871239B (ja)
WO (1) WO2014112226A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063328A (ja) * 2016-10-12 2018-04-19 株式会社東芝 電子機器及びその制御方法
JP2018173456A (ja) * 2017-03-31 2018-11-08 国立大学法人大阪大学 対話ロボットおよびロボット制御プログラム
JP2020074043A (ja) * 2020-02-06 2020-05-14 東芝映像ソリューション株式会社 電子機器及びその制御方法
JP2020074044A (ja) * 2020-02-06 2020-05-14 東芝映像ソリューション株式会社 電子機器及びその制御方法
JP2020091492A (ja) * 2020-02-06 2020-06-11 東芝映像ソリューション株式会社 電子機器及びその制御方法
JPWO2021049445A1 (ja) * 2019-09-10 2021-03-18
JP7471921B2 (ja) 2020-06-02 2024-04-22 株式会社日立製作所 音声対話装置、音声対話方法、および音声対話プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106710592B (zh) * 2016-12-29 2021-05-18 北京奇虎科技有限公司 一种智能硬件设备中的语音识别纠错方法和装置
CN108231069B (zh) * 2017-08-30 2021-05-11 深圳乐动机器人有限公司 清洁机器人的语音控制方法、云服务器、清洁机器人及其存储介质
TWI672690B (zh) * 2018-03-21 2019-09-21 塞席爾商元鼎音訊股份有限公司 人工智慧語音互動之方法、電腦程式產品及其近端電子裝置
CN111369989B (zh) * 2019-11-29 2022-07-05 添可智能科技有限公司 清洁设备的语音交互方法及清洁设备
KR20210047173A (ko) * 2019-10-21 2021-04-29 엘지전자 주식회사 오인식된 단어를 바로잡아 음성을 인식하는 인공 지능 장치 및 그 방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03248199A (ja) * 1990-02-26 1991-11-06 Ricoh Co Ltd 音声認識方式
JPH11143488A (ja) * 1997-11-10 1999-05-28 Hitachi Ltd 音声認識装置
JP2000135186A (ja) * 1998-10-30 2000-05-16 Ym Creation:Kk 掃除玩具
JP2001075595A (ja) * 1999-09-02 2001-03-23 Honda Motor Co Ltd 車載用音声認識装置
JP2003036091A (ja) * 2001-07-23 2003-02-07 Matsushita Electric Ind Co Ltd 電化情報機器
JP2003079552A (ja) * 2001-09-17 2003-03-18 Toshiba Tec Corp 掃除装置
JP2008009153A (ja) * 2006-06-29 2008-01-17 Xanavi Informatics Corp 音声対話システム
JP2008052178A (ja) * 2006-08-28 2008-03-06 Toyota Motor Corp 音声認識装置と音声認識方法
JP2008233305A (ja) * 2007-03-19 2008-10-02 Toyota Central R&D Labs Inc 音声対話装置、音声対話方法及びプログラム
JP2010055044A (ja) * 2008-04-22 2010-03-11 Ntt Docomo Inc 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5758322A (en) * 1994-12-09 1998-05-26 International Voice Register, Inc. Method and apparatus for conducting point-of-sale transactions using voice recognition
US6292782B1 (en) * 1996-09-09 2001-09-18 Philips Electronics North America Corp. Speech recognition and verification system enabling authorized data transmission over networked computer systems
JP2001175276A (ja) * 1999-12-17 2001-06-29 Denso Corp 音声認識装置及び記録媒体
US20030061053A1 (en) * 2001-09-27 2003-03-27 Payne Michael J. Method and apparatus for processing inputs into a computing device
JP2006205497A (ja) * 2005-01-27 2006-08-10 Canon Inc 音声認識手段を持つ複合機
ES2346343T3 (es) * 2005-02-18 2010-10-14 Irobot Corporation Robot autonomo de limpieza de superficies para una limpieza en seco y en mojado.
KR101832952B1 (ko) * 2011-04-07 2018-02-28 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US9934780B2 (en) * 2012-01-17 2018-04-03 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance spoken dialogue by modifying dialogue's prompt pitch

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03248199A (ja) * 1990-02-26 1991-11-06 Ricoh Co Ltd 音声認識方式
JPH11143488A (ja) * 1997-11-10 1999-05-28 Hitachi Ltd 音声認識装置
JP2000135186A (ja) * 1998-10-30 2000-05-16 Ym Creation:Kk 掃除玩具
JP2001075595A (ja) * 1999-09-02 2001-03-23 Honda Motor Co Ltd 車載用音声認識装置
JP2003036091A (ja) * 2001-07-23 2003-02-07 Matsushita Electric Ind Co Ltd 電化情報機器
JP2003079552A (ja) * 2001-09-17 2003-03-18 Toshiba Tec Corp 掃除装置
JP2008009153A (ja) * 2006-06-29 2008-01-17 Xanavi Informatics Corp 音声対話システム
JP2008052178A (ja) * 2006-08-28 2008-03-06 Toyota Motor Corp 音声認識装置と音声認識方法
JP2008233305A (ja) * 2007-03-19 2008-10-02 Toyota Central R&D Labs Inc 音声対話装置、音声対話方法及びプログラム
JP2010055044A (ja) * 2008-04-22 2010-03-11 Ntt Docomo Inc 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063328A (ja) * 2016-10-12 2018-04-19 株式会社東芝 電子機器及びその制御方法
US10522139B2 (en) 2016-10-12 2019-12-31 Qingdao Hisense Electronics Co., Ltd. Electronic device and control method thereof
US11404060B2 (en) 2016-10-12 2022-08-02 Hisense Visual Technology Co., Ltd. Electronic device and control method thereof
JP2018173456A (ja) * 2017-03-31 2018-11-08 国立大学法人大阪大学 対話ロボットおよびロボット制御プログラム
JPWO2021049445A1 (ja) * 2019-09-10 2021-03-18
WO2021049445A1 (ja) * 2019-09-10 2021-03-18 日本電気株式会社 言語推定装置、言語推定方法、およびプログラム
JP7331933B2 (ja) 2019-09-10 2023-08-23 日本電気株式会社 言語推定装置、言語推定方法、およびプログラム
JP2020074043A (ja) * 2020-02-06 2020-05-14 東芝映像ソリューション株式会社 電子機器及びその制御方法
JP2020074044A (ja) * 2020-02-06 2020-05-14 東芝映像ソリューション株式会社 電子機器及びその制御方法
JP2020091492A (ja) * 2020-02-06 2020-06-11 東芝映像ソリューション株式会社 電子機器及びその制御方法
JP7471921B2 (ja) 2020-06-02 2024-04-22 株式会社日立製作所 音声対話装置、音声対話方法、および音声対話プログラム

Also Published As

Publication number Publication date
CN104871239B (zh) 2018-05-01
KR101707359B1 (ko) 2017-02-15
KR20150086339A (ko) 2015-07-27
EP2947651A1 (en) 2015-11-25
WO2014112226A1 (ja) 2014-07-24
EP2947651A4 (en) 2016-01-06
CN104871239A (zh) 2015-08-26
EP2947651B1 (en) 2017-04-12
US20150332675A1 (en) 2015-11-19

Similar Documents

Publication Publication Date Title
WO2014112226A1 (ja) 電子機器及び掃除機
JP4837917B2 (ja) 音声に基づく装置制御
US10586534B1 (en) Voice-controlled device control using acoustic echo cancellation statistics
JP6844608B2 (ja) 音声処理装置および音声処理方法
JP6122816B2 (ja) 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
JP5996603B2 (ja) サーバ、発話制御方法、発話装置、発話システムおよびプログラム
US9293134B1 (en) Source-specific speech interactions
JP2014191029A (ja) 音声認識システムおよび音声認識システムの制御方法
JP2005084253A (ja) 音響処理装置、方法、プログラム及び記憶媒体
JPWO2011055410A1 (ja) 音声認識装置
JP2008256802A (ja) 音声認識装置および音声認識方法
JP2008205896A (ja) 放収音装置
US20120278066A1 (en) Communication interface apparatus and method for multi-user and system
WO2003107327A1 (en) Controlling an apparatus based on speech
JP2010078763A (ja) 音声処理装置、音声処理プログラム、およびインターホンシステム
JP5365530B2 (ja) 通信機器
JP2019219509A (ja) ロボット、ロボットの制御方法及びプログラム
JP2011221101A (ja) コミュニケーション装置
JP2008249893A (ja) 音声応答装置及びその方法
JP4539313B2 (ja) 音声認識辞書作成システム、音声認識辞書作成方法、音声認識システムおよびロボット
JP4255897B2 (ja) 話者認識装置
JP7131362B2 (ja) 制御装置、音声対話装置及びプログラム
JP7429107B2 (ja) 音声翻訳装置、音声翻訳方法及びそのプログラム
JP2018091911A (ja) 音声対話システム及び音声対話方法
JP2018022086A (ja) サーバ装置、制御システム、方法、情報処理端末、および制御プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171114