JP2002182679A - Apparatus control method using speech recognition and apparatus control system using speech recognition as well as recording medium recorded with apparatus control program using speech recognition - Google Patents

Apparatus control method using speech recognition and apparatus control system using speech recognition as well as recording medium recorded with apparatus control program using speech recognition

Info

Publication number
JP2002182679A
JP2002182679A JP2000383808A JP2000383808A JP2002182679A JP 2002182679 A JP2002182679 A JP 2002182679A JP 2000383808 A JP2000383808 A JP 2000383808A JP 2000383808 A JP2000383808 A JP 2000383808A JP 2002182679 A JP2002182679 A JP 2002182679A
Authority
JP
Japan
Prior art keywords
voice
information
network
recognition
voice command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000383808A
Other languages
Japanese (ja)
Other versions
JP4109414B2 (en
Inventor
Yasunaga Miyazawa
康永 宮沢
Hiroshi Hasegawa
浩 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2000383808A priority Critical patent/JP4109414B2/en
Publication of JP2002182679A publication Critical patent/JP2002182679A/en
Application granted granted Critical
Publication of JP4109414B2 publication Critical patent/JP4109414B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Selective Calling Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problems that, when plural apparatus having a speech recognition function exist in a limited space and if a speech command is applied to any thereof, the other apparatus make recognition operation as well and makes erroneous operation in many cases. SOLUTION: The plural apparatus (air conditioner 2, TV 3, acoustic apparatus 4, etc.), which have the speech recognition function and exists in one room is connected to a network 10 and the information individually possessed by the respective apparatus is exchanged with each other through the network 10. The information of the other apparatus sent through the network 10 in addition to the information possessed by user's own apparatus is referenced with respect to the speech command uttered by the user, by which the arrangement relations of the respective apparatus and the noise information collected by the respective apparatus are referenced and the speech recognition is carried out.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声認識機能を持
つ家庭電化製品などの機器が限られた空間内に複数存在
し、それらの機器が音声コマンドを認識して動作制御を
行う音声認識を用いた機器制御方法および音声認識を用
いた機器制御システムならびに音声認識を用いた機器制
御プログラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to voice recognition in which a plurality of devices such as home appliances having a voice recognition function exist in a limited space, and these devices recognize voice commands and perform operation control. The present invention relates to a device control method used, a device control system using voice recognition, and a recording medium recording a device control program using voice recognition.

【0002】[0002]

【従来の技術】近年、半導体製品の高性能化や低価格化
により、広い分野にマイクロコンピュータ(マイコンと
いう)が使用されている。特に、家庭電化製品(家電製
品という)には多くの製品にマイコンが使用され、ます
ます多機能・高性能化が進んでいる。
2. Description of the Related Art In recent years, microcomputers (referred to as microcomputers) have been used in a wide range of fields due to higher performance and lower prices of semiconductor products. In particular, microcomputers are used in many home electric appliances (home electric appliances), and multi-functionality and high performance are further increasing.

【0003】このように家電製品などにもマイコンが気
軽に搭載できることから、この種の機器にも、従来では
あまり考えられなかった多様な機能を持たせることが容
易になってきている。たとえば、音声認識機能や音声合
成機能などがその一例であって、これら音声認識機能や
音声合成機能を持たせることで、音声対話型のユーザイ
ンタフェース機能を持った機器が種々考えられてきてい
る。これは、家電製品以外においても同様のことが言え
る。
As described above, since microcomputers can be easily mounted on home electric appliances and the like, it has become easy to provide various kinds of functions that have not been considered so far in such devices. For example, a voice recognition function or a voice synthesis function is one example, and various devices having a voice interactive user interface function by providing the voice recognition function or the voice synthesis function have been considered. The same can be said for other than home appliances.

【0004】[0004]

【発明が解決しようとする課題】このような音声対話型
のユーザインタフェース機能を持った機器が、ある限ら
れた空間内に複数存在している状況を考える。図5は1
つの限られた空間としてのある1つの部屋1内に、音声
対話型のユーザインタフェース機能を持った機器とし
て、エアコンディショナ(エアコンという)2とテレビ
ジョン(TVという)3とステレオなどの音響機器4が
存在している様子を示すものである。
Consider a situation in which a plurality of devices having such a voice interactive user interface function exist in a limited space. FIG.
In one room 1 as a limited space, audio equipment such as an air conditioner (referred to as an air conditioner) 2, a television (referred to as a TV) 3, and a stereo as devices having a voice interactive user interface function. 4 shows a state where 4 exists.

【0005】このように、1つの部屋1に、複数の音声
対話型のユーザインタフェース機能を持った機器が存在
する場合、ユーザがたとえばエアコン2に対して何らか
の動作を行わせるための音声コマンドを与えると、エア
コン2がその音声コマンドを認識し、その認識結果に応
じた動作をなすが、このとき、他の機器もその音声コマ
ンドに対して音声認識動作を行い、誤動作を行うことが
ある。
As described above, when a plurality of devices having a voice interactive user interface function exist in one room 1, the user gives a voice command for causing the air conditioner 2 to perform some operation, for example. Then, the air conditioner 2 recognizes the voice command and performs an operation in accordance with the recognition result. At this time, other devices may also perform a voice recognition operation on the voice command and malfunction.

【0006】仮りに、ユーザの発した音声コマンドが、
エアコンだけが認識可能な内容であって、TV3や音響
機器4にとっては認識可能な内容ではなくても、TV3
や音響機器4もその音声コマンドを認識しようとして音
声認識動作を開始する場合があり、これによって、誤っ
た認識を行って誤動作を行うことがある。特に、ユーザ
の与えた音声コマンドに対して、機器側から音声によっ
て何らかの応答を行う音声対話機能を有する機器は、ユ
ーザの与えた音声コマンドに対して全く関係のない応答
がなされるなど色々な不具合が生じがちである。
If a voice command issued by a user is
Even if the content is recognizable only by the air conditioner and not recognizable by the TV 3 or the audio device 4, the TV 3
In some cases, the audio device 4 also starts a voice recognition operation in an attempt to recognize the voice command, which may cause erroneous recognition and malfunction. In particular, devices that have a voice interaction function that responds to the voice command given by the user by voice from the device side have various problems such as a response that is completely unrelated to the voice command given by the user. Tends to occur.

【0007】そこで本発明は、音声認識機能を持つ家電
製品などの機器が限られた空間内に複数存在する場合、
それぞれの機器がその機器としての独立した動作を行い
ながらも、ユーザからの音声コマンドに対しては相互に
情報交換を行いながら音声認識が行えるようにすること
で、誤認識やそれによる誤動作を回避でき、さらに、雑
音除去などを機能的に行えるようにして適切な機器制御
を可能とすることを目的としている。
Therefore, the present invention provides a method for controlling a plurality of devices such as home appliances having a voice recognition function in a limited space.
Avoids erroneous recognition and erroneous operations by allowing each device to perform voice recognition from the user while exchanging information with each other while performing independent operation as the device. It is another object of the present invention to make it possible to perform noise removal and the like functionally and to appropriately control equipment.

【0008】[0008]

【課題を解決するための手段】上述の目的を達成するた
めに、本発明の音声認識を用いた機器制御方法は、限ら
れた空間内に音声認識機能を有する複数の機器が存在
し、これらの機器のいずれかに対し音声コマンドを与え
ることで、その音声コマンドの与えられた機器がその音
声コマンドを認識してその認識結果に応じて所定の動作
制御をなす音声認識を用いた機器制御方法において、前
記複数の機器をネットワークに接続し、それぞれの機器
が個々に有する情報を当該ネットワークを介して相互に
交換し合い、前記ユーザの発話する音声コマンドに対
し、自己機器の有する情報に加えて前記ネットワークを
介して送られてくる他の機器の情報を参照して音声認識
を行って、その認識結果に応じた機器の動作制御を行う
ようにしている。
In order to achieve the above object, a device control method using voice recognition according to the present invention comprises a plurality of devices having a voice recognition function in a limited space. A device control method using voice recognition in which a voice command is given to one of the devices, and the device given the voice command recognizes the voice command and performs predetermined operation control according to the recognition result. In, the plurality of devices are connected to a network, information exchanged by each device is exchanged with each other through the network, and in response to a voice command spoken by the user, in addition to the information held by the device itself, Voice recognition is performed with reference to information on other devices transmitted via the network, and operation control of the devices is performed according to the recognition result.

【0009】また、本発明の音声認識を用いた機器制御
システムは、限られた空間内に音声認識機能を有する複
数の機器が存在し、これらの機器のいずれかに対し音声
コマンドを与えることで、その音声コマンドの与えられ
た機器がその音声コマンドを認識してその認識結果に応
じて所定の動作制御をなす音声認識を用いた機器制御シ
ステムにおいて、前記複数の機器は、それぞれの機器が
相互に情報交換可能となるようにネットワークに接続さ
れ、そのネットワークに接続された前記複数の機器それ
ぞれが、その機器がもともと有する機器動作部とこの機
器動作部の動作状態の設定を行うユーザ操作部を有する
とともに、少なくとも、音声コマンドを受け付けてその
音声コマンドを認識し、その認識結果に基づいて前記機
器動作部を制御する音声認識を用いた機器動作制御部
と、ネットワークに自己の機器を接続するためのネット
ワーク接続部とを有してなり、前記複数の機器それぞれ
が個々に有する情報を当該ネットワークを介して相互に
交換し合い、前記ユーザの発話する音声コマンドに対
し、自己の有する情報に加えて前記ネットワークを介し
て送られてくる他の機器の情報を参照して音声認識を行
って、その認識結果に応じた機器の動作制御を行うよう
にしている。
Further, in the device control system using voice recognition of the present invention, a plurality of devices having a voice recognition function exist in a limited space, and a voice command is given to any of these devices. In a device control system using voice recognition in which a device given the voice command recognizes the voice command and performs predetermined operation control in accordance with the recognition result, the plurality of devices are mutually Connected to a network so that information can be exchanged, each of the plurality of devices connected to the network includes a device operation unit originally included in the device and a user operation unit for setting an operation state of the device operation unit. And at least receive a voice command, recognize the voice command, and control the device operation unit based on the recognition result. It has a device operation control unit using voice recognition and a network connection unit for connecting its own device to a network, and mutually exchanges information individually owned by each of the plurality of devices via the network. In response to the voice command spoken by the user, voice recognition is performed with reference to the information of other devices sent via the network in addition to the information held by the user, and the voice recognition is performed according to the recognition result. The operation of the device is controlled.

【0010】これら各発明において、前記相互に交換し
合う情報は、少なくとも、それぞれの機器を識別するた
めの機器識別情報、それぞれの機器が収集した雑音情報
を含むものである。
In each of these inventions, the mutually exchanged information includes at least device identification information for identifying each device, and noise information collected by each device.

【0011】そして、前記認識結果に応じた機器の動作
制御を行うまでの処理手順は、前記それぞれの機器を識
別するための機器識別情報を前記ネットワークを介して
取得して、当該ネットワーク上に存在する情報交換すべ
き機器を認知するとともに、それぞれ機器の位置関係の
測定を行い、その後、音声コマンドが入力されると、上
記それぞれの機器の位置関係に基づき、ユーザの発話す
る音声コマンドが自己機器に対して発せられたか否かを
判定し、当該音声コマンドが自己機器に対して発せられ
たものであると判定された場合には、その音声コマンド
に対する認識処理を行ってその認識結果に基づく機器の
動作制御を行う。
[0011] In the processing procedure until the operation control of the device according to the recognition result is performed, device identification information for identifying the respective device is obtained via the network, and the device identification information for identifying the device exists on the network. In addition to recognizing the devices to exchange information, measuring the positional relationship of each device, and then inputting a voice command, based on the positional relationship of each device, the voice command spoken by the user is transmitted to the own device. It is determined whether or not the voice command is issued to the own device, and if it is determined that the voice command is issued to the own device, the voice command is recognized and the device based on the recognition result is performed. Operation control.

【0012】そして、前記音声認識を行う際、前記それ
ぞれの機器が収集した雑音情報を相互に交換し合い、そ
の雑音情報を用いて、音声コマンドに重畳する雑音の除
去を行って音声認識を行うようにしている。
When performing the voice recognition, the noise information collected by the respective devices is exchanged with each other, and using the noise information, noise superimposed on the voice command is removed to perform voice recognition. Like that.

【0013】このとき、前記音声コマンドに重畳する雑
音は、機器の定常的な運転音や環境上に定常的に存在す
る定常音と、ネットワークに接続されている機器が動作
することによって発する音声や音楽などの音であり、前
記定常音については、それぞれの機器が定常的雑音情報
として取得するとともに、取得した定常的雑音情報をネ
ットワークを通じて他の機器との間で相互に交換しあっ
てそれぞれの機器で保存し、音声認識を行う際は、その
定常的雑音情報を音声コマンドから除去して音声認識を
行う。
At this time, the noise superimposed on the voice command includes a steady driving sound of the device or a steady sound that is constantly present in the environment, a voice generated by the operation of the device connected to the network, For the stationary sound, each device acquires the stationary noise information as stationary noise information, and the acquired stationary noise information is exchanged with another device through a network to exchange the stationary noise information with each other. When the data is stored in the device and speech recognition is performed, the stationary noise information is removed from the speech command and speech recognition is performed.

【0014】また、前記音声や音楽などの音について
は、それを発する機器がリアルタイムでその音を雑音情
報として取得するとともに、ネットワークに接続されて
いる他の機器もその雑音情報をネットワークを通じてリ
アルタイムで取得し、音声認識を行う際は、その雑音情
報を音声コマンドから除去して音声認識を行うようにす
る。
[0014] In addition, as for the sound such as voice or music, a device that emits the sound obtains the sound as noise information in real time, and other devices connected to the network also transmit the noise information in real time through the network. When acquiring and performing voice recognition, the noise information is removed from the voice command to perform voice recognition.

【0015】また、前記それぞれの機器が行う音声コマ
ンドに対する音声認識は、それぞれの機器同志が相互に
情報交換し合うことによって、ある機器における認識可
能単語を他の機器も認識可能としている。
[0015] In the speech recognition for the voice command performed by each device, the devices exchange information with each other so that a recognizable word in one device can be recognized by another device.

【0016】また、本発明の音声認識を用いた機器制御
プログラムを記録した記録媒体は、限られた空間内に存
在する音声認識機能を有した複数の機器をネットワーク
に接続し、それぞれの機器が個々に有する情報として、
少なくとも、それぞれの機器を識別するための機器識別
情報、それぞれの機器が収集した雑音情報を当該ネット
ワークを介して相互に交換することを可能とし、ユーザ
の発話する音声コマンドに対し、自己機器の有する情報
に加えて前記ネットワークを介して送られてくる他の機
器の情報を参照して音声認識を行って、その認識結果に
応じた機器の動作制御を行う音声認識を用いた機器制御
プログラムを記録した記録媒体であって、その機器制御
プログラムは、それぞれの機器を識別するための機器識
別情報を前記ネットワークを介して取得して、当該ネッ
トワーク上に存在する情報交換すべき機器を認知すると
ともに、それぞれ機器の位置関係の測定を行う手順と、
この位置関係の測定後、ユーザからの音声コマンドを待
つ状態とし、音声コマンドが入力されると、上記それぞ
れの機器の位置関係に基づき、ユーザの発話する音声コ
マンドが自己機器に対して発せられたか否かを判定する
手順と、当該音声コマンドが自己機器に対して発せられ
たものであると判定された場合には、その音声コマンド
に対する認識処理を行って、その認識結果に応じた機器
の動作制御を行う手順とを含むものである。
Further, the recording medium for recording the device control program using voice recognition according to the present invention connects a plurality of devices having a voice recognition function existing in a limited space to a network, and each device is connected to a network. As information to have individually,
At least, device identification information for identifying each device, noise information collected by each device can be exchanged with each other through the network, and the own device has a voice command spoken by the user. Performs voice recognition with reference to information of other devices sent via the network in addition to the information, and records a device control program using voice recognition for controlling operation of the device according to the recognition result. In the recording medium, the device control program acquires device identification information for identifying each device via the network, and recognizes a device to be exchanged for information existing on the network, A procedure for measuring the positional relationship of each device,
After the measurement of the positional relationship, the apparatus waits for a voice command from the user, and when the voice command is input, based on the positional relationship between the respective devices, whether the voice command spoken by the user has been issued to the own device. The procedure for determining whether or not the voice command has been issued to the own device. If the voice command is determined to have been issued to the own device, the voice command is recognized, and the operation of the device according to the recognition result is performed. And a procedure for performing control.

【0017】この音声認識を用いた機器制御プログラム
を記録した記録媒体の発明において、前記音声認識を行
う際、前記それぞれの機器が収集した雑音情報を相互に
交換し合い、その雑音情報を用いて、音声コマンドに重
畳する雑音の除去を行って音声認識を行うようにしてい
る。
[0017] In the invention of the recording medium in which the device control program using the voice recognition is recorded, when performing the voice recognition, the noise information collected by the respective devices is exchanged with each other, and the noise information is used. In addition, the voice recognition is performed by removing noise superimposed on the voice command.

【0018】このとき、前記音声コマンドに重畳する雑
音は、機器の定常的な運転音や環境上に定常的に存在す
る定常音と、ネットワークに接続されている機器が動作
することによって発する音声や音楽などの音であり、前
記定常音については、それぞれの機器が定常的雑音情報
として取得するとともに、取得した定常的雑音情報をネ
ットワークを通じて他の機器との間で相互に交換しあっ
てそれぞれの機器で保存し、音声認識を行う際は、その
定常的雑音情報を音声コマンドから除去して音声認識を
行う。
At this time, the noise superimposed on the voice command includes a steady driving sound of the device or a steady sound that is constantly present in the environment, a voice generated by the operation of the device connected to the network, and For the stationary sound, each device acquires the stationary noise information as stationary noise information, and the acquired stationary noise information is exchanged with another device through a network to exchange the stationary noise information with each other. When the data is stored in the device and speech recognition is performed, the stationary noise information is removed from the speech command and speech recognition is performed.

【0019】また、前記音声や音楽などの音について
は、それを発する機器がリアルタイムでその音を雑音情
報として取得するとともに、ネットワークに接続されて
いる他の機器もその雑音情報をネットワークを通じてリ
アルタイムで取得し、音声認識を行う際は、その雑音情
報を音声コマンドから除去して音声認識を行うようにす
る。
In addition, as for the sound such as voice and music, a device that emits the sound acquires the sound as noise information in real time, and other devices connected to the network also transmit the noise information in real time through the network. When acquiring and performing voice recognition, the noise information is removed from the voice command to perform voice recognition.

【0020】また、前記それぞれの機器が行う音声コマ
ンドに対する音声認識は、それぞれの機器同志が相互に
情報交換し合うことによって、ある機器における認識可
能単語を他の機器も認識可能としている。
In the voice recognition for the voice command performed by each device, the devices exchange information with each other so that a recognizable word in one device can be recognized by another device.

【0021】このように本発明は、音声認識機能を有す
る複数の機器をネットワークに接続し、それぞれの機器
が個々に有する情報を当該ネットワークを介して相互に
情報交換し合いながら、音声認識を行って、その認識結
果に応じた機器の動作制御を行うようにしているので、
従来のように、ユーザがある機器に対して発話した音声
コマンドに対し、他の機器もその音声コマンドを認識す
る動作を行って、誤動作するといった不具合を未然に防
止することができ、ユーザの意図した機器の動作制御を
的確に行うことができる。
As described above, according to the present invention, a plurality of devices having a voice recognition function are connected to a network, and voice recognition is performed while mutually exchanging information individually owned by each device via the network. Therefore, the operation of the device is controlled according to the recognition result.
As in the past, in response to a voice command spoken to one device by another user, another device performs an operation of recognizing the voice command, thereby preventing a malfunction such as a malfunction and preventing the user's intention. The operation control of the device can be performed accurately.

【0022】なお、上述したそれぞれの機器が個々に有
する情報というのは、少なくとも、それぞれの機器を識
別するための機器識別情報、それぞれの機器が収集した
雑音情報であり、この機器識別情報によって、ネットワ
ーク上にどのような機器が存在するかを知ることがで
き、ネットワーク上に存在する情報交換すべき機器の存
在を知った上で、機器間で音の送受信を行うなどして音
の到達時間などから、それぞれの機器間の距離を求め、
それに基づいて、それぞれの機器の位置関係を推定する
こともできる。
Note that the information individually owned by each device described above is at least device identification information for identifying each device and noise information collected by each device. You can know what devices are on the network, know the devices on the network that need to exchange information, and then send and receive sound between devices, and the arrival time of the sound From such, find the distance between each device,
Based on this, the positional relationship between the devices can be estimated.

【0023】また、ある機器が収集した雑音情報を他の
機器も共有することによって、音声コマンドを認識する
際、音声コマンドに重畳した雑音情報を除去した上で音
声認識処理することができるので、高い認識率を得るこ
とができる。
Also, by sharing the noise information collected by a certain device with other devices, when recognizing a voice command, the voice recognition process can be performed after removing noise information superimposed on the voice command. A high recognition rate can be obtained.

【0024】また、本発明の処理手順は、それぞれの機
器を識別するための機器識別情報を前記ネットワークを
介して取得することによって、ネットワーク上にどのよ
うな機器が存在するかを認知するとともに、それぞれの
機器の位置関係の測定を行うことによって機器の配置を
推定し、その後、入力された音声コマンドに対し、機器
相互間で情報交換を行いながら音声認識処理を行うよう
にしている。これによって、ユーザの音声コマンドがど
の機器に対して発せられたかを的確に判定することがで
き、当該音声コマンドが自己の機器に対するものである
と判定された場合は、その音声コマンドに対する認識処
理を行ってその認識結果に基づく機器の動作制御を行う
ようにしているので、ユーザの意図しない機器が誤動作
するのを防止できる。
Further, the processing procedure of the present invention recognizes what kind of equipment exists on the network by acquiring the equipment identification information for identifying each equipment through the network, The arrangement of the devices is estimated by measuring the positional relationship between the devices, and thereafter, the voice recognition process is performed while exchanging information between the input voice commands between the devices. With this, it is possible to accurately determine to which device the user's voice command is issued, and when it is determined that the voice command is directed to the own device, the recognition process for the voice command is performed. Since the operation of the device is controlled based on the recognition result, malfunction of the device not intended by the user can be prevented.

【0025】また、ある機器が収集した雑音情報を相互
に交換し合い、その雑音情報を用いて、音声コマンドに
重畳する雑音の除去を行って音声認識を行うようにして
いる。
Also, noise information collected by a certain device is exchanged with each other, and noise superimposed on a voice command is removed using the noise information to perform voice recognition.

【0026】このように、ネットワークに接続されたす
べての機器が雑音情報を共有できるので、どの機器に音
声コマンドが与えられても、その音声コマンドに重畳さ
れた雑音を適切に除去した上で音声認識することがで
き、高い認識率を得ることができる。
As described above, since all devices connected to the network can share the noise information, no matter which device receives the voice command, the noise superimposed on the voice command is appropriately removed, and then the voice command is removed. It can be recognized, and a high recognition rate can be obtained.

【0027】なお、前記音声コマンドに重畳する雑音が
環境上に定常的に存在する定常音(エアコンの運転音な
ど)である場合には、予めその定常音を定常的雑音情報
としてそれぞれの機器で保存しておくことができる。
When the noise superimposed on the voice command is a stationary sound (such as an air conditioner operating sound) which is constantly present in the environment, the stationary sound is set as stationary noise information in advance in each device. Can be saved.

【0028】したがって、音声コマンドを認識する際、
音声コマンドにその定常的雑音情報が重畳されていて
も、保存されている定常的雑音情報を読み出すことによ
って、音声コマンドからその定常的雑音情報を除去して
音声認識を行うことができる。このように、定常的雑音
情報が重畳された音声コマンドに対し、適切な雑音除去
が行えるので、高い認識率を得ることができる。
Therefore, when recognizing a voice command,
Even if the stationary noise information is superimposed on the voice command, by reading out the stored stationary noise information, the stationary noise information can be removed from the voice command to perform speech recognition. As described above, since appropriate noise removal can be performed on a voice command on which stationary noise information is superimposed, a high recognition rate can be obtained.

【0029】また、前記音声コマンドに重畳する雑音が
TVや音響機器の発する音声や音楽などである場合に
は、それを発する機器がリアルタイムでその音情報を雑
音情報として取得するとともに、ネットワークに接続さ
れている他の機器もその雑音情報をネットワークを通じ
てリアルタイムで取得できるようにしている。
When the noise to be superimposed on the voice command is a voice or music emitted from a TV or an audio device, the device issuing the voice command acquires the sound information as noise information in real time and connects to the network. Other devices are also able to acquire the noise information in real time through a network.

【0030】これによって、音声コマンドを認識する際
は、その雑音情報を音声コマンドから除去して音声認識
を行うようにする。このように、 TVや音響機器など
の音が雑音として重畳された音声コマンドに対し、適切
な雑音除去が行えるので、高い認識率を得ることができ
る。
Thus, when recognizing the voice command, the noise information is removed from the voice command to perform voice recognition. As described above, since a suitable noise removal can be performed for a voice command in which a sound of a TV or an audio device is superimposed as noise, a high recognition rate can be obtained.

【0031】さらに、情報を共有することによって、あ
る機器における認識可能単語を他の機器も認識可能とす
ることもでき、これによって、誤認識による誤動作を防
止できる効果がある。すなわち、個々の機器が独自に認
識する従来のシステムでは、それぞれの機器は、自分の
認識可能な単語のみしか認識できないことはいうまでも
ない。これに対して、本発明のように、それぞれの機器
がネットワークにつながれてそれぞれの情報を共有でき
るようにすれば、それぞれの機器が認識可能な単語をす
べての機器が認識可能単語とすることができる。これに
よって、きめ細かい高精度な認識処理がなされるので、
紛らわしい単語などを的確に認識処理することができる
ので、誤認識による誤動作を防止できるようになる。
Further, by sharing information, a recognizable word in a certain device can be recognized by another device, thereby preventing malfunction due to erroneous recognition. In other words, it goes without saying that in the conventional system in which each device independently recognizes, each device can recognize only words that can be recognized by itself. On the other hand, as in the present invention, if each device is connected to a network and can share each piece of information, words that can be recognized by each device can be regarded as words that can be recognized by all devices. it can. As a result, detailed and highly accurate recognition processing is performed,
Since confusing words and the like can be accurately recognized and processed, a malfunction due to erroneous recognition can be prevented.

【0032】[0032]

【発明の実施の形態】以下、本発明の実施の形態につい
て説明する。なお、この実施の形態で説明する内容は、
本発明の音声認識を用いた機器制御方法および音声認識
を用いた機器制御システムについての説明であるととも
に、本発明の音声認識を用いた機器制御プログラムを記
録した記録媒体における機器制御プログラムの具体的な
処理内容をも含むものである。
Embodiments of the present invention will be described below. The contents described in this embodiment are as follows.
It is a description of a device control method using voice recognition and a device control system using voice recognition according to the present invention, and a specific example of a device control program on a recording medium that stores a device control program using voice recognition according to the present invention. It also includes various processing contents.

【0033】この実施の形態では、図5で説明したよう
に、1つの居住空間1内に、音声対話型のユーザインタ
フェース機能を持った機器として、エアコン2とTV3
とステレオなどの音響機器4が存在している状況を考え
るが、本発明では、図1に示すように、これら各機器が
ネットワーク10に接続されていて、それぞれの機器は
独立した動作が可能でありながら、それぞれの機器同志
が相互に情報交換を行いながら音声認識を行うことがで
きるようになっている。
In this embodiment, as described with reference to FIG. 5, an air conditioner 2 and a TV 3 are provided in one living space 1 as devices having a voice interactive user interface function.
In the present invention, these devices are connected to a network 10 as shown in FIG. 1, and each device can operate independently. In spite of this, each device can perform voice recognition while exchanging information with each other.

【0034】なお、このネットワーク10は、この図1
では便宜上、有線通信路によるネットワークとしている
が、近距離無線(Blue Toothなど)などによる無線通信
によるネットワークでもよい。また、有線通信路による
ネットワークは建物内の電気配線を用いるなどの方法も
あり、ネットワークを構築する手段は本発明では限定さ
れるものではない。また、この実施の形態では、音声対
話型のインターフェース機能を有した機器を考えている
が、本発明は、音声コマンドを認識してその認識結果に
応じた動作をなす機器であればよく、ユーザに対して音
声による応答を行う機能は必ずしも必要ではない。
It should be noted that this network 10
For convenience, a network using a wired communication path is used, but a network using wireless communication using short-range wireless communication (such as Blue Tooth) may be used. In addition, a network using a wired communication path includes a method using electric wiring in a building or the like, and means for constructing the network is not limited in the present invention. Further, in this embodiment, a device having a voice interactive interface function is considered. However, the present invention may be any device that recognizes a voice command and performs an operation according to the recognition result. It is not always necessary to have a function of responding by voice to the user.

【0035】図2および図3は図1で示した音声対話型
のユーザインタフェース機能を持った機器の構成をそれ
ぞれ示すブロック図であるが、ここでは、エアコン2
(図2参照)とTV3(図3参照)について説明する。
なお、これらの機器は、音声対話型のユーザインタフェ
ース機能を持った機器であるので、音声認識機能や音声
合成機能を有し、また、それらの機能に伴って、音声入
力部や音声出力部を有する。以下、詳細に説明する。
FIGS. 2 and 3 are block diagrams respectively showing the configuration of the device having the voice interactive user interface function shown in FIG.
(See FIG. 2) and TV3 (see FIG. 3) will be described.
Since these devices have a voice interactive user interface function, they have a voice recognition function and a voice synthesis function, and have a voice input unit and a voice output unit in accordance with those functions. Have. The details will be described below.

【0036】図2はエアコン2の構成を示すもので、従
来から普通に用いられている通常のエアコンとしての動
作をなす機器動作部21やエアコンの運転の開始/停止
やタイマ設定など通常のエアコンでなされる様々な設定
がユーザによって可能なユーザ操作部22の他に、音声
対話型のユーザインタフェース機能を実現する音声認識
を用いた機器制御部23、エアコン2をネットワーク1
0に接続するためのネットワーク接続部24が設けられ
る。
FIG. 2 shows the configuration of the air conditioner 2. The air conditioner 2 includes a device operating section 21 which operates as a normal air conditioner which has been conventionally used and an air conditioner such as start / stop of an air conditioner and timer setting. In addition to the user operation unit 22 in which various settings can be made by the user, the equipment control unit 23 using voice recognition for realizing a voice interactive user interface function, and the air conditioner 2
A network connection unit 24 for connecting to the network 0 is provided.

【0037】また、図3はTV3の構成を示すもので、
図2に示したエアコン2と基本的には殆ど同じ構成であ
り、従来から普通に用いられている通常のTVとしての
動作をなす機器動作部31やTVの動作の開始/停止や
チャンネル設定など通常のTVでなされる様々な設定が
ユーザによって可能なユーザ操作部32の他に、図2の
エアコン2と同様に、音声対話型のユーザインタフェー
ス機能を実現する音声認識を用いた機器制御部33、T
V3をネットワーク10に接続するためのネットワーク
接続部34が設けられる。
FIG. 3 shows the structure of the TV 3.
The air conditioner 2 basically has almost the same configuration as the air conditioner 2 shown in FIG. 2, and includes a device operation unit 31 that operates as a normal TV that has been used conventionally, a start / stop of the operation of the TV, a channel setting, and the like. In addition to the user operation unit 32 in which various settings made by a normal TV can be performed by the user, similarly to the air conditioner 2 in FIG. 2, a device control unit 33 using voice recognition for realizing a voice interactive user interface function. , T
A network connection unit 34 for connecting V3 to the network 10 is provided.

【0038】これらエアコン2あるいはTV3における
音声認識を用いた機器制御部23,33は、それぞれ同
じ構成となっているので、ここでは、同一部分には同一
符号を付して説明する。この実施の形態では、音声対話
型のユーザインタフェース機能を有しているので、音声
コマンド入力用のマイクロホン41、このマイクロホン
41に入力された音声の増幅などを行う増幅器42、音
声をディジタル変換するA/D変換部43、ユーザに対
する応答用の音声データをアナログ変換するD/A変換
部44、それを増幅する増幅器45、それを出力するス
ピーカ46が設けられるとともに、入力された音声コマ
ンドを認識してそれに対する応答用の音声データを生成
したり、認識結果に対応した機器制御信号を生成した
り、さらには、自己機器が有する自己機器情報(たとえ
ば、自己機器に割り当てられた機器識別情報や自己機器
が収集した雑音情報など)をネットワーク接続部24
(TV3の場合はネットワーク接続部34)を介してネ
ットワーク10上に送出したり、ネットワーク10上に
存在する他の機器からの情報(たとえば、それぞれの機
器に割り当てられた機器識別情報やそれぞれの機器が収
集した雑音情報など)をネットワーク接続部24(TV
3の場合はネットワーク接続部34)を介して受け取っ
てそれを処理する情報処理部47と、この情報処理部4
7が実行する動作処理プログラムなどが保存されたRO
Mや上述の自己機器情報や他の機器からの情報など、情
報処理部47が行う処理に必要な様々な情報を保存する
RAMからなる情報記録部48とを有している。
The equipment control units 23 and 33 using voice recognition in the air conditioner 2 or the TV 3 have the same configuration, and therefore the same parts will be described with the same reference numerals. In this embodiment, since a voice interactive user interface function is provided, a microphone 41 for inputting a voice command, an amplifier 42 for amplifying the voice input to the microphone 41, and an A for digitally converting the voice. A / D converter 43, a D / A converter 44 for converting voice data for response to the user into an analog signal, an amplifier 45 for amplifying the data, and a speaker 46 for outputting the same are provided. To generate voice data for response thereto, generate a device control signal corresponding to the recognition result, and further generate self-device information (for example, device identification information assigned to the The noise information collected by the device) to the network connection unit 24
(For the TV 3, the network connection unit 34), the information is transmitted to the network 10, and information from other devices existing on the network 10 (for example, device identification information assigned to each device and each device) The noise information collected by the network connection unit 24 (TV
In the case of No. 3, an information processing unit 47 that receives and processes it via the network connection unit 34) and an information processing unit 4
That stores the operation processing program executed by PC7
An information recording unit 48 including a RAM for storing various information necessary for processing performed by the information processing unit 47, such as M, the above-described self-device information, and information from other devices.

【0039】なお、情報処理部47は、ユーザ操作部2
2(TV3の場合はユーザ操作部32)にも接続されて
いて、このユーザ操作部22(TV3の場合はユーザ操
作部32)によって、出力音声の音量などの制御や機器
動作部21(TV3の場合は機器動作部31)に対する
制御内容など様々な項目をユーザが設定できるようにな
っている。
The information processing section 47 is provided by the user operation section 2
2 (the user operation unit 32 in the case of the TV 3), and the user operation unit 22 (the user operation unit 32 in the case of the TV 3) controls the volume of the output sound and the like and controls the device operation unit 21 (the TV 3). In this case, the user can set various items such as control contents for the device operation unit 31).

【0040】また、TV3の場合は、もともと、音声を
発する機能を有しているので、TVとしての音声出力用
の増幅器やスピーカと、ユーザ応答用の増幅器やスピー
カなどは共用することができる。したがって、図3で
は、TV3としての機器動作部31からの音声出力とユ
ーザに対する応答出力は、ともに増幅器45で増幅され
たのちに、スピーカ46から出力されるようになってい
る。
Since the TV 3 originally has a function of emitting sound, an amplifier and a speaker for outputting sound as a TV and an amplifier and a speaker for responding to a user can be shared. Therefore, in FIG. 3, the audio output from the device operation unit 31 as the TV 3 and the response output to the user are both amplified by the amplifier 45 and then output from the speaker 46.

【0041】また、エアコン2はその運転中に運転音が
定常的な雑音として常に発生するのが普通であるが、そ
の運転音が音声コマンドに重畳されて、認識性能に悪影
響を与えることがある。
In the air conditioner 2, the driving sound is usually always generated as stationary noise during the operation, but the driving sound may be superimposed on the voice command, which may adversely affect the recognition performance. .

【0042】これに対処するために、その運転音をそれ
ぞれの機器が自己のマイクロホン41で収集して、情報
処理部47で解析を行って雑音情報として出力し、その
雑音情報を情報記憶部48に保存するとともに、ネット
ワーク10にも送出してそれぞれの機器がその雑音情報
を共有し合うことができるようにしている。そして、音
声コマンドを認識する際、その雑音情報を用いて音声コ
マンドに重畳された運転音を雑音として除去した上で音
声認識する。
In order to cope with this, each device collects its driving sound with its own microphone 41, analyzes it in the information processing section 47 and outputs it as noise information, and the noise information is stored in the information storage section 48. And also sends it to the network 10 so that each device can share the noise information. When recognizing the voice command, the voice recognition is performed after removing the driving sound superimposed on the voice command as noise using the noise information.

【0043】なお、このような定常的な雑音は、ネット
ワーク10に接続されている機器が発する雑音だけでは
なく、ネットワーク10に接続されていない機器が発す
る場合もあり、また、環境上に定常的に存在する雑音の
場合もある。これらの定常的な雑音も、ネットワーク1
0に接続されているそれぞれの機器が、自己のマイクロ
ホン41で収集して、情報処理部47で解析を行って雑
音情報として出力し、その雑音情報を情報記憶部48に
保存するとともに、ネットワーク10にも送出してそれ
ぞれの機器がその雑音情報を共有し合うようにする。
Note that such stationary noise may not only be generated by equipment connected to the network 10 but may also be generated by equipment not connected to the network 10. In some cases. These stationary noises also occur in network 1
Each device connected to the communication device 0 collects the information with its own microphone 41, analyzes the information with the information processing unit 47, outputs the noise information, stores the noise information in the information storage unit 48, and stores the noise information in the network 10. , So that the devices share the noise information.

【0044】一方、TV3の場合は、そのTV3の音声
(増幅器45の出力側音声)をA/D変換器43を介し
て情報処理部47にリアルタイムで入力させ、情報処理
部47で解析して雑音情報として出力し、、その雑音情
報を用いて、音声コマンドを音声認識する際、音声コマ
ンドに重畳されたTVの音声を雑音として除去しながら
音声認識する。さらに、情報処理部47で解析されて得
られた雑音情報は、ネットワーク10を介して他の機器
にもリアルタイムで与えることができ、それによって、
他の機器においても、ユーザからのコマンドに対し音声
認識を行う際、音声コマンドに重畳されたTVの音声を
雑音として除去しながら音声認識する。
On the other hand, in the case of the TV 3, the audio of the TV 3 (the audio on the output side of the amplifier 45) is input to the information processing section 47 via the A / D converter 43 in real time, and analyzed by the information processing section 47. When the voice command is output as noise information and the voice command is used for voice recognition using the noise information, the voice recognition is performed while removing the TV voice superimposed on the voice command as noise. Further, the noise information obtained by being analyzed by the information processing unit 47 can be given to other devices in real time via the network 10, and thereby,
When performing voice recognition for a command from a user, the other devices also perform voice recognition while removing the TV voice superimposed on the voice command as noise.

【0045】また、図1においては、これらエアコン2
やTV3の他に音響機器4が存在するが、この音響機器
4もこの図2や図3と同様に考えることができ。なお、
音響機器4はTV3と同様に、もともと、音を出力する
機能を有しているので、図3で示したTV3と同様に、
音響機器4としての音声出力用の増幅器やスピーカ
と、ユーザ応答用の増幅器やスピーカなどは共用するこ
とができる。
Also, in FIG.
There is an acoustic device 4 in addition to the TV and the TV 3, and the acoustic device 4 can be considered in the same manner as in FIGS. In addition,
Since the audio device 4 originally has a function of outputting sound similarly to the TV 3, the audio device 4 has the same function as the TV 3 shown in FIG.
An amplifier or speaker for audio output as the audio device 4 and an amplifier or speaker for user response can be shared.

【0046】さらに、TV3と同様、その音響機器4か
ら発せられる音を増幅器45の出力側から取り出して情
報処理部47にリアルタイムで入力させ、情報処理部4
7で解析して雑音情報を得て、その雑音情報を用いて、
音声コマンドを音声認識する際、音声コマンドに重畳さ
れたTVの音声を雑音として除去するようにしている。
そして、この雑音情報はネットワーク10を介して他の
機器にもリアルタイムで与えることができる。
Further, similarly to the TV 3, the sound emitted from the audio equipment 4 is taken out from the output side of the amplifier 45 and input to the information processing section 47 in real time.
7 to obtain noise information, and using the noise information,
When recognizing a voice command, a TV voice superimposed on the voice command is removed as noise.
This noise information can be provided to other devices in real time via the network 10.

【0047】このように本発明では、ある限られた空間
として1つの部屋1内に、音声対話型のユーザインタフ
ェース機能を持った機器が複数存在している状況を考え
ている。そして、それぞれの機器(ここではエアコン
2、TV3、音響機器4)は、それぞれの機器としての
動作は独立して並列に行いながら、自己の情報処理部4
7から自己機器情報をネットワーク10に送出するとと
もに、ネットワーク10上に存在する他の機器からの情
報(他機器情報)を受け取って、それぞれが相互に情報
を交換しながら音声認識を用いた機器制御を行うように
している。以下、その動作について図4のフローチャー
トを参照しながら説明する。
As described above, the present invention considers a situation where a plurality of devices having a voice interactive user interface function exist in one room 1 as a certain limited space. Each device (here, the air conditioner 2, the TV 3, and the audio device 4) performs its own operation independently and in parallel while operating as its own information processing unit 4.
7 transmits its own device information to the network 10 and receives information (other device information) from other devices existing on the network 10 and exchanges information with each other to control devices using voice recognition. To do. Hereinafter, the operation will be described with reference to the flowchart of FIG.

【0048】この図4のフローチャートは、個々の機器
における情報処理部47が行う処理を示すものであり、
個々の機器の動作が開始された状態(たとえば、電源ス
イッチなどがオンして、その機器の動作が開始した状
態)で、この図4に示す処理がそれぞれの機器において
並列的になされる。
The flowchart of FIG. 4 shows the processing performed by the information processing section 47 in each device.
When the operation of each device is started (for example, when the power switch or the like is turned on and the operation of the device is started), the processing shown in FIG. 4 is performed in parallel in each device.

【0049】その処理手順としては、個々の機器がネッ
トワーク10に接続されると(ステップs1)、それに
よって、それぞれの機器が相互に自己機器情報の交換を
行う(ステップs2)。これによって、自己機器からみ
てどの機器がネットワーク10に接続されているかを知
ることができる。これは、機器がネットワーク10に接
続されると、個々の機器の機器識別情報(機器IDとい
う)がネットワーク10上に送出され、その機器IDを
他の機器が取得することによって、現在、どの機器がネ
ットワーク10に接続されているかを知ることができ
る。
As the processing procedure, when individual devices are connected to the network 10 (step s1), the respective devices mutually exchange their own device information (step s2). Thus, it is possible to know which device is connected to the network 10 from the viewpoint of the own device. This is because when a device is connected to the network 10, device identification information (referred to as a device ID) of each device is transmitted over the network 10, and the device ID is acquired by another device. Is connected to the network 10.

【0050】そして、個々の機器ごとに個々の機器の位
置関係の測定を行うか否かを判断する(ステップs
3)。これは、自己機器からみて、現在、ネットワーク
10に接続されている複数の機器がどのような位置関係
にあるか否かを調べるもので、その位置関係の測定は、
ある機器が出す音を他の機器のマイクロホンが取得(た
とえば、TV3のスピーカ46から出される音をエアコ
ン2のマイクロホン41が取得)し、その音の到達時間
の遅れなどによって2つの機器間の距離を測定し、その
距離によって位置関係を調べる。たとえば、この実施の
形態のように、3つの機器(エアコン2、TV3、音響
機器4)について考えている場合には、3つの機器の間
の距離がわかればそれによって、図1に示す部屋1内に
おける3つの機器の位置関係を推定することができる。
Then, it is determined whether or not to measure the positional relationship of each device for each device (step s).
3). This is to check whether or not a plurality of devices currently connected to the network 10 are in a positional relationship from the viewpoint of the own device. The measurement of the positional relationship is as follows.
The sound of a certain device is acquired by the microphone of another device (for example, the sound emitted from the speaker 46 of the TV 3 is acquired by the microphone 41 of the air conditioner 2), and the distance between the two devices is determined by the delay in the arrival time of the sound. Is measured, and the positional relationship is checked based on the distance. For example, when three devices (air conditioner 2, TV 3, and audio device 4) are considered as in this embodiment, if the distance between the three devices is known, the room 1 shown in FIG. It is possible to estimate the positional relationship between the three devices within the device.

【0051】なお、この位置関係の測定は、位置関係測
定モードとなっている場合にのみ行われる。その位置関
係測定モードとなる条件としては、たとえば、自己機器
が新たにネットワーク10に加わった場合、他の機器が
新たにネットワーク10に加わった場合、前回の位置関
係測定から所定の時間が経過している場合などである。
The measurement of the positional relationship is performed only when the mode is the positional relationship measuring mode. The conditions for setting the positional relationship measurement mode include, for example, a case where a self-device newly joins the network 10 and a case where another device newly joins the network 10. And so on.

【0052】上述の位置関係測定モードとなる条件とし
て、自己機器が新たにネットワーク10に加わった場
合、あるいは、他の機器が新たにネットワーク10に加
わった場合の例としては、たとえば、エアコン2とTV
3がすでに動作中で、これら2つの機器がすでにネット
ワーク10に接続されている状態にあって、そこに新た
に、音響機器4の電源スイッチがオンとなってネットワ
ーク10に接続された場合などがある。
As an example of the condition for the above-described positional relationship measurement mode, when the own device newly joins the network 10 or when another device newly joins the network 10, for example, TV
3 is already operating, these two devices are already connected to the network 10, and the power switch of the audio device 4 is newly turned on and connected to the network 10. is there.

【0053】この場合、音響機器4から見れば、自己機
器が新たにネットワーク10に加わったので、音響機器
4においては、位置関係測定モードとなる。一方、すで
にネットワーク10に接続状態となっているエアコン2
やTV3にとっては、音響機器4が新たにネットワーク
10に接続されたので、それを検知すると、その時点で
位置測定モードとなる。
In this case, from the viewpoint of the audio device 4, the self-device has newly joined the network 10, so that the audio device 4 enters the positional relationship measurement mode. On the other hand, the air conditioner 2 already connected to the network 10
For the TV 3 and the TV 3, since the audio device 4 is newly connected to the network 10, when the audio device 4 detects this, the mode is set to the position measurement mode at that time.

【0054】このように、位置測定モードとなった場合
には、前述したような手法によって位置測定を行い(ス
テップs4)、それぞれの機器の位置関係を取得し、自
己の機器から見て他の機器がどのような位置関係となっ
ているかを推定する。
As described above, when the mode is set to the position measurement mode, the position is measured by the method described above (step s4), and the positional relationship of each device is obtained, and other devices are viewed from their own devices. Estimate the positional relationship between the devices.

【0055】そして次に、雑音解析を行うか否かを調べ
(ステップs5)、雑音解析を行う必要がある場合に
は、雑音解析を行う(ステップs6)。ここでの雑音と
いうのは、前述したように、エアコン2の運転音やその
他の機器の運転音など、さらには、環境下に存在する定
常的な雑音である。これらの定常的な雑音は、ネットワ
ーク10に接続されているそれぞれの機器がそれぞれ自
分のマイクロホンで入力し、それぞれの機器において雑
音解析する。そして、その解析結果を、定常的な雑音情
報として自己の情報記憶部48に保存しておくととも
に、ネットワーク10を介して他の機器にも送り、それ
ぞれの機器がその定常的な雑音情報を共有する。
Next, it is checked whether or not to perform noise analysis (step s5). If it is necessary to perform noise analysis, noise analysis is performed (step s6). The noise here is, as described above, a steady noise existing in the environment, such as the operating noise of the air conditioner 2 and the operating noise of other devices. These stationary noises are input by their respective microphones connected to the network 10 using their own microphones, and the respective devices analyze the noises. Then, the analysis result is stored in its own information storage unit 48 as stationary noise information, and is also transmitted to other devices via the network 10 so that each device shares the stationary noise information. I do.

【0056】なお、定常的な雑音が存在しない場合に
は、ステップs6の処理は不要であり、また、定常的な
雑音があっても、一度、その定常的な雑音情報が得られ
れば、それ以降は特には雑音解析処理は行う必要はない
が、その定常的な雑音に大きな変化があったときには、
再度、雑音解析処理を行ったほうが望ましい。この定常
的な雑音に大きな変化があったときの例として、たとえ
ば、定常的な雑音の発生源がエアコンであった場合、ユ
ーザによって運転内容の設定変更がなされた場合など
(たとえば、送風を「弱」から「強」に変更した場合な
ど)がある。
If there is no stationary noise, the processing in step s6 is unnecessary, and even if there is stationary noise, once the stationary noise information is obtained, the processing is performed. After that, it is not necessary to perform the noise analysis processing in particular, but when there is a large change in the stationary noise,
It is desirable to perform the noise analysis processing again. Examples of such a large change in the stationary noise include, for example, a case where the source of the stationary noise is an air conditioner, a case where the setting of the operation content is changed by the user, and the like (for example, a case where the From "weak" to "strong").

【0057】このようにして、位置関係の測定が終了
し、さらに、定常的な雑音などに対する雑音解析がなさ
れたあと、それぞれの機器は、ユーザからの音声コマン
ドの入力待ち状態となる(ステップs7)。ここで、音
声コマンドが発せられ、それがそれぞれの機器のマイク
ロホンに入力されると、それぞれの機器は、音声認識処
理モードに入る(ステップs8)。この音声認識処理モ
ードは、それぞれの機器がネットワーク10を介して相
互に情報交換を行い、ユーザがどの機器に対して音声コ
マンドを与えたかを判定して、その音声コマンドの与え
られた機器が音声コマンドに対する音声認識を行う。
In this way, after the measurement of the positional relationship is completed and the noise is analyzed for stationary noise and the like, each device is in a state of waiting for the input of a voice command from the user (step s7). ). Here, when a voice command is issued and input to the microphone of each device, each device enters a voice recognition processing mode (step s8). In the voice recognition processing mode, each device exchanges information with each other via the network 10, determines which device the user has given a voice command to, and determines whether the device given the voice command has a voice. Perform voice recognition for commands.

【0058】その処理としては、それぞれの機器の位置
関係に基づき、ユーザがどの機器に対して音声コマンド
を発話したのかを特定する。たとえば、ユーザの音声コ
マンドがエアコン2に対してなされたものであることが
わかったとすれば、エアコン2がユーザの音声コマンド
の認識結果に対する動作を行う。そして、この音声コマ
ンドに対する認識処理を行う際、音声コマンドに重畳さ
れている雑音を除去した上で音声認識処理を行う。
In the process, the device specifies the device to which the user has issued the voice command based on the positional relationship between the devices. For example, if it is determined that the user's voice command is given to the air conditioner 2, the air conditioner 2 performs an operation based on the recognition result of the user's voice command. Then, when performing the recognition process for the voice command, the voice recognition process is performed after removing noise superimposed on the voice command.

【0059】ここでの雑音情報とは、上述したエアコン
2などが発する定常的な運転音を解析して得られた雑音
情報や、TV3や音響機器4などが発する音声あるいは
音楽などの音を解析して得られた雑音情報である。そし
て、これら音源既知の雑音情報は、その雑音の発生源と
なる機器が収集し、それを解析して雑音情報としてネッ
トワーク10にも送出する。それによって、ネットワー
ク10に接続されている他の機器もそれらの雑音情報を
取得することができ、ネットワーク10に接続されたす
べての機器がその雑音情報を共有する。
Here, the noise information refers to noise information obtained by analyzing the steady driving sound generated by the air conditioner 2 or the like, or sound such as voice or music generated by the TV 3 or the audio equipment 4. This is the noise information obtained as a result. Then, the noise information of the known sound source is collected by a device that is the source of the noise, analyzed, and transmitted to the network 10 as noise information. Thereby, other devices connected to the network 10 can also acquire the noise information, and all the devices connected to the network 10 share the noise information.

【0060】これによって、音声コマンドを認識する
際、音声コマンドに重畳されたそれらの雑音を除去した
上で、音声コマンドを認識することができる。
Accordingly, when recognizing a voice command, it is possible to recognize the voice command after removing those noises superimposed on the voice command.

【0061】なお、エアコン2などが発する定常的な運
転音は、前述したように、収集した雑音を予め解析し
て、それをそれぞれの機器の情報記憶部48などに保存
しておくことができる。したがって、音声認識する際、
情報記憶部48からその雑音情報を読み出して、音声コ
マンドに重畳されているエアコン2の運転音を除去して
音声認識するということができる。
As described above, for the steady operation sound generated by the air conditioner 2 or the like, the collected noise can be analyzed in advance and the noise can be stored in the information storage unit 48 of each device. . Therefore, when recognizing voice,
The noise information is read from the information storage unit 48, and the operation sound of the air conditioner 2 superimposed on the voice command is removed to perform voice recognition.

【0062】一方、 音声コマンドに重畳されたTV3
や音響機器4が発する音は、リアルタイムで雑音情報を
解析しながら雑音を除去して音声認識する必要がある。
したがって、これらTV3や音響機器4からの音情報
は、それをアルタイムで取得して、取得した音を他の機
器にもリアルタイムで送る必要がある。なお、この場
合、実際の音声認識処理は、ユーザからの音声コマンド
やTV3や音響機器4からの音情報をバッファリングし
て両者の同期をとりながら多少の時間遅れを持った状態
で行うことができる。
On the other hand, TV3 superimposed on the voice command
It is necessary to recognize the sound emitted from the audio device 4 by removing noise while analyzing noise information in real time.
Therefore, it is necessary to acquire the sound information from the TV 3 or the audio device 4 in real time and send the obtained sound to other devices in real time. In this case, the actual voice recognition processing may be performed with a slight time delay while synchronizing the two and buffering voice commands from the user and sound information from the TV 3 and the audio device 4. it can.

【0063】以上のように、ユーザによって音声コマン
ドが与えられると、機器の位置関係に基づき、ユーザが
どの機器に対して音声コマンドを発話したのかを特定す
る。たとえば、ユーザの発話した音声を各機器が入力し
たときの時刻のタイミングや入力音声のパワーなどを用
いて、さらに、各機器の位置関係から、ユーザがどの機
器に向かって発話したかを解析することが可能となる。
As described above, when a voice command is given by the user, it is specified to which device the user has spoken the voice command based on the positional relationship between the devices. For example, by using the timing of the time when each device inputs the voice uttered by the user, the power of the input voice, and the like, further, it is analyzed from the positional relationship of each device to which device the user uttered. It becomes possible.

【0064】そして、ユーザからの音声コマンドが与え
られた機器(ここでは、エアコン2としている)が、ユ
ーザの音声コマンドを雑音除去しながら音声認識処理し
て、その認識結果に対する動作を行う。なお、この音声
認識処理を行っているときにも常に他の機器との間で情
報交換が行われている。
Then, the device (here, the air conditioner 2) to which the voice command from the user has been given performs voice recognition processing while removing noise from the user's voice command, and performs an operation on the recognition result. Note that information is always exchanged with other devices even when the voice recognition processing is being performed.

【0065】上述の音声認識結果に対する動作手順は、
まず、音声による応答を行うか否かの判定を行(ステッ
プs9)。つまり、そのエアコン2が音声対話型であっ
て音声による応答を行う必要のある場合には、ユーザの
音声コマンドに対し音声による応答を行い(ステップs
10)、次に、その認識結果に応じた機器の制御を行う
か否かを判定し(ステップs11)、機器の制御を行う
のであれば、その認識結果に応じた機器の制御を行う
(ステップs12)。
The operation procedure for the above speech recognition result is as follows.
First, it is determined whether or not a response is made by voice (step s9). In other words, if the air conditioner 2 is of the voice interactive type and needs to respond by voice, it responds by voice to the user's voice command (step s).
10) Next, it is determined whether or not to control the device according to the recognition result (step s11). If the device is to be controlled, the device is controlled according to the recognition result (step s11). s12).

【0066】たとえば、ユーザの音声コマンドが「スイ
ッチオフ」であったとすれば、それを音声認識し、その
認識結果に基づいて、たとえば、機器側からユーザに対
して「スイッチオフですね」といった応答を行ったのち
に、スイッチをオフすることによって機器(この場合、
エアコン2)の運転を停止するといった制御がなされ
る。
For example, if the voice command of the user is “switch off”, the voice recognition is performed, and based on the recognition result, for example, a response such as “switch off” from the device side to the user is given. And then switch off the device (in this case,
Control such as stopping the operation of the air conditioner 2) is performed.

【0067】一方、ステップs9における判定が、音声
による応答は行わないとの判定であれば、直接、その認
識結果に基づいた機器の制御を行うか否かを判定し(ス
テップs11)、機器の制御を行うのであれば、そのま
ま、認識結果に基づいた機器の制御を行う(ステップs
12)。たとえば、ユーザの音声コマンドが「スイッチ
オフ」であったとすれば、それを音声認識し、その認識
結果に基づいて、スイッチをオフして機器(この場合、
エアコン2)の運転を停止するといった制御がなされ
る。
On the other hand, if the determination in step s9 is that the voice response is not to be made, it is directly determined whether or not to control the device based on the recognition result (step s11). If the control is to be performed, the device is controlled based on the recognition result (step s).
12). For example, if the voice command of the user is “switch off”, the voice recognition is performed, and based on the recognition result, the switch is turned off and the device (in this case,
Control such as stopping the operation of the air conditioner 2) is performed.

【0068】また、ステップs9における判定が、音声
による応答は行わないとの判定であり、かつ、ステップ
s11の判定が、機器の制御を行うのではない場合に
は、再び、ステップs2に処理が戻り、ステップs2〜
s6を経て、ステップs7における次の音声コマンド入
力を待つ処理に入る。なお、このとき、位置関係の測定
や定常雑音の計測などを行う必要がなければ、ステップ
s2〜s6を省略して、直接、ステップs7に処理が飛
んでもよい。
If the determination in step s9 is that no response is made by voice and the determination in step s11 is not to control the equipment, the process returns to step s2. Return, step s2
After s6, the process enters a process of waiting for the input of the next voice command in step s7. At this time, if it is not necessary to perform the measurement of the positional relationship, the measurement of the stationary noise, or the like, steps s2 to s6 may be omitted and the process may jump directly to step s7.

【0069】以上説明したように、この実施の形態で
は、ある限られた空間としての1つの部屋1内に、音声
対話型のユーザインタフェースを持った機器として、エ
アコン2とTV3と音響機器4が存在し、それらがネッ
トワーク10に接続され、それぞれの機器は機器として
の動作を独立して並列に行いながらも、相互に情報交換
を行うことができるようにしている。
As described above, in this embodiment, in one room 1 as a limited space, the air conditioner 2, the TV 3, and the audio device 4 are provided as devices having a voice interactive user interface. The devices exist and are connected to the network 10 so that the devices can mutually exchange information while performing operations as the devices independently and in parallel.

【0070】これによって、それぞれの機器は、現在、
ネットワーク10上にどのような機器が存在するかを認
知することができるとともに、それぞれの機器がどのよ
うな位置関係にあるかを推定することができ、それに基
づいて、ユーザがどの機器に対して音声コマンドを発し
ているかを判定することができる。さらに、他の機器か
ら出されている雑音情報をそれぞれの機器が共有するこ
ともできる。
As a result, each device is
It is possible to recognize what kind of equipment exists on the network 10 and to estimate what kind of positional relationship each equipment has. It can be determined whether a voice command has been issued. Further, each device can share noise information output from another device.

【0071】このように、それぞれの機器がネットワー
ク10に接続され、相互に情報交換することによって、
ユーザがどの機器に対して音声コマンドを発しているか
を個々の機器において判定することができることから、
ユーザの意図しない機器が誤動作するのを未然に防止す
ることができる。
As described above, each device is connected to the network 10 and exchanges information with each other.
Since it is possible to determine on which device the user is issuing a voice command to each device,
It is possible to prevent a device that is not intended by the user from malfunctioning.

【0072】また、ある機器から発せられる音声や音
楽、あるいは、前述した定常的な雑音情報を機器が収集
すると、その収集した雑音は、ネットワーク10を通じ
て他の機器にも与えることができるので、音声認識する
際、それらの雑音が音声コマンドに重畳されていても、
その雑音を除去した上で音声認識処理することが可能と
なり、機器が動作している環境下での音声認識率を向上
させることができる。
Further, when a device collects voice or music emitted from a certain device or the above-mentioned stationary noise information, the collected noise can be given to other devices through the network 10. When recognizing, even if those noises are superimposed on the voice command,
The speech recognition processing can be performed after removing the noise, and the speech recognition rate in an environment where the device is operating can be improved.

【0073】また、情報を共有できるということは、そ
れぞれの機器が独自に認識可能な単語を他の機器も認識
できるようにすることも可能であり、誤認識による誤動
作を防止できる効果もある。すなわち、個々の機器が独
自に認識する従来のシステムでは、たとえば、エアコン
2の認識可能な単語が20単語、TV3が認識可能な単
語が30単語、音響機器4の認識可能な単語が10単語
であるとすれば、それぞれの機器は、自分の認識可能な
単語のみしか認識できないことはいうまでもない。
The ability to share information also allows each device to recognize words that can be independently recognized by other devices, and has the effect of preventing malfunction due to erroneous recognition. That is, in the conventional system in which each device independently recognizes, for example, the air conditioner 2 can recognize 20 words, the TV 3 can recognize 30 words, and the audio device 4 can recognize 10 words. If so, it goes without saying that each device can only recognize words that can be recognized by itself.

【0074】したがって、これらの機器が1つの限られ
た空間内に存在し、ユーザの発話する音声コマンドによ
って動作制御を行う場合、ユーザがたとえばエアコン2
に対して、そのエアコン2のみが認識可能な音声コマン
ドを発話したとすると、その音声コマンドはエアコン2
以外の機器にも入力され、エアコン2以外の機器も無理
に認識を行おうとする。そして、エアコン2以外の機器
は、その音声コマンドに比較的近いコマンドとして認識
を行って、その認識結果に応じた動作制御を行ってしま
うという不具合が生じる可能性がある。
Therefore, when these devices are present in one limited space, and the operation is controlled by a voice command spoken by the user, the user can control the air conditioner 2 for example.
If only the air conditioner 2 utters a voice command that can be recognized, the voice command
The device is also input to other devices, and the device other than the air conditioner 2 tries to forcibly recognize it. Then, there is a possibility that a device other than the air conditioner 2 recognizes the command as a command relatively close to the voice command and performs operation control according to the recognition result.

【0075】これに対して、本発明のように、それぞれ
の機器がネットワークにつながれてそれぞれの情報を共
有できるようにすれば、エアコン2の認識可能な20単
語、TV3が認識可能な30単語、音響機器4の認識可
能な10単語をすべて認識可能単語とすることができ
る。
On the other hand, as in the present invention, if each device is connected to a network and can share each information, 20 words recognizable by the air conditioner 2, 30 words recognizable by the TV 3, All 10 words that can be recognized by the audio device 4 can be recognized words.

【0076】たとえば、ユーザがエアコン2に対して
「スイッチオフ」という音声コマンドを発生した場合を
考える。この「スイッチオフ」という音声コマンドは、
どの機器にも共通のコマンドであり、どの機器において
も認識可能であるとする。そこで、ある1つの機器がユ
ーザに対し「どの機器ですか」といった応答を行い、そ
れに対して、ユーザが「エアコン」と発話したとする
と、ユーザの発話した「エアコン」が、すべての機器で
相互に情報交換しながら音声認識され、その結果、エア
コン2だけがユーザの「スイッチオフ」の音声コマンド
に対する動作を行うというようなことが可能となる。
For example, consider the case where the user issues a voice command “switch off” to air conditioner 2. This voice command “switch off”
It is assumed that the command is common to all devices and can be recognized by any device. Therefore, if one device responds to the user such as "which device" and the user utters "air conditioner", the "air conditioner" uttered by the user is reciprocal in all devices. As a result, the voice recognition is performed while exchanging information. As a result, only the air conditioner 2 can perform an operation in response to the voice command of “switch off” of the user.

【0077】これは、それぞれの機器がネットワーク1
0に接続され、認識可能単語をも共有できることによっ
て可能となるものである。つまり、エアコン2は「エア
コン」という単語を認識可能単語として持っていても、
TV3、音響機器4はそれぞれ単独では、「エアコン」
は認識可能単語として持っていないのが普通であるが、
上述したように、認識可能単語を共有することによっ
て、本来、認識できない単語をも認識することができる
ようになる。
This is because each device is connected to the network 1
0 and can be shared by recognizable words. That is, even if the air conditioner 2 has the word “air conditioner” as a recognizable word,
The TV 3 and the audio device 4 are each independently used as an “air conditioner”
Usually do not have as a recognizable word,
As described above, by sharing recognizable words, words that cannot be recognized originally can be recognized.

【0078】これによって、きめ細かい高精度な認識処
理がなされるので、紛らわしい単語などを的確に認識処
理することができるので、誤認識による誤動作を防止で
きるようになる。
As a result, fine and accurate recognition processing is performed, so that confusing words and the like can be accurately recognized, so that malfunction due to erroneous recognition can be prevented.

【0079】なお、本発明は以上説明した実施の形態に
限定されるものではなく、本発明の要旨を逸脱しない範
囲で種々変形実施可能となるものである。たとえば、前
述の実施の形態では、音声対話型のインターフェース機
能を有した機器、つまり、ユーザの音声コマンドを認識
して、その応答を音声により行うとともに、その認識結
果に応じた機器制御を行う機能を有した機器について説
明したが、本発明は、ユーザに対して音声による応答を
行う機能は必ずしも必要ではない。
The present invention is not limited to the embodiments described above, but can be variously modified without departing from the gist of the present invention. For example, in the above-described embodiment, a device having a voice interactive interface function, that is, a function of recognizing a user's voice command, performing a response by voice, and performing device control according to the recognition result. However, the present invention does not necessarily require a function of making a voice response to the user.

【0080】また、ネットワーク10つながる機器は全
てが音声認識を行ってその認識結果に応じた機器の動作
制御をなす機能を有するものでなくてもよい。たとえ
ば、TV3や音響機器4など、音声や音楽などの音を発
する機器は、たとえ、音声認識機能を持たず、音声コマ
ンドによる制御対象の機器でないとしても、それらの機
器をネットワーク10に接続しておき、それらの機器が
発する音声や音楽などの音を雑音情報として、ネットワ
ーク10に接続された音声認識機能を有する他の機器に
提供できるようにすることも可能である。
Further, all the devices connected to the network 10 need not have the function of performing voice recognition and controlling the operation of the devices according to the recognition result. For example, devices that emit sounds such as voice and music, such as the TV 3 and the audio device 4, are connected to the network 10 even if they do not have a voice recognition function and are not devices to be controlled by voice commands. In addition, it is also possible to provide a sound such as a sound or music emitted by these devices as noise information to another device connected to the network 10 and having a voice recognition function.

【0081】これによって、それらTV3や音響機器4
などが動作しているときに、ユーザからの音声コマンド
が、音声認識機能を有する機器に対して与えられた場
合、その音声コマンドに重畳されるTV3や音響機器4
などの音を除去した上で音声認識することができる。
As a result, the TV 3 and the audio device 4
When a voice command from a user is given to a device having a voice recognition function while the device is operating, the TV 3 or the audio device 4 superimposed on the voice command.
After removing such sounds, voice recognition can be performed.

【0082】また、前述の実施の形態では、制御対象の
機器としては主に家庭電化製品を想定したが、本発明は
家電製品に限られるものではなく、音声コマンドを認識
してその認識結果に応じた動作をなす音声認識機能を有
する機器が、限られた空間内に複数存在するような場合
には広く適用することができるものである。
In the above-described embodiment, home appliances are mainly assumed as devices to be controlled. However, the present invention is not limited to home appliances, and voice commands are recognized and the recognition result is obtained. The present invention can be widely applied to a case where a plurality of devices having a voice recognition function performing corresponding operations exist in a limited space.

【0083】また、本発明は、以上説明した本発明を実
現するための処理手順が記述された処理プログラムを作
成し、その処理プログラムをフロッピィディスク、光デ
ィスク、ハードディスクなどの記録媒体に記録させてお
くことができ、本発明はその処理プログラムが記録され
た記録媒体をも含むものである。また、ネットワークか
ら当該処理プログラムを得るようにしてもよい。
According to the present invention, a processing program describing processing procedures for realizing the above-described present invention is created, and the processing program is recorded on a recording medium such as a floppy disk, an optical disk, or a hard disk. The present invention also includes a recording medium on which the processing program is recorded. Further, the processing program may be obtained from a network.

【0084】[0084]

【発明の効果】以上説明したように本発明によれば、音
声認識機能を有した複数の機器をネットワークに接続
し、それぞれの機器が個々に有する情報を当該ネットワ
ークを介して相互に情報交換し合いながら、音声認識を
行って、その認識結果に応じた機器の動作制御を行うよ
うにしているので、ユーザの音声コマンドがどの機器に
対して発せられたかを的確に判定することができ、ユー
ザの意図しない機器が誤動作するのを防止できる。
As described above, according to the present invention, a plurality of devices having a voice recognition function are connected to a network, and information individually held by each device is mutually exchanged via the network. While performing, the voice recognition is performed, and the operation of the device is controlled according to the recognition result. Therefore, it is possible to accurately determine to which device the user's voice command is issued, It is possible to prevent unintended devices from malfunctioning.

【0085】また、それぞれの機器同志で情報交換が可
能となることによって、ある機器が収集した雑音情報
を、ネットワークに接続されたすべての機器が共有でき
るので、どの機器に音声コマンドが与えられても、その
音声コマンドに重畳された雑音を適切に除去した上で音
声認識することができ、高い認識率を得ることができ
る。
Further, since the information can be exchanged among the devices, the noise information collected by a certain device can be shared by all the devices connected to the network, so that the voice command is given to any device. Also, voice recognition can be performed after appropriately removing noise superimposed on the voice command, and a high recognition rate can be obtained.

【0086】さらに、情報を共有することによって、あ
る機器における認識可能単語を他の機器も認識可能とす
ることもでき、これによって、誤認識による誤動作を防
止できる効果がある。すなわち、個々の機器が独自に認
識する従来のシステムでは、それぞれの機器は、自分の
認識可能な単語のみしか認識できないことはいうまでも
ない。これに対して、本発明のように、それぞれの機器
がネットワークにつながれてそれぞれの情報を共有でき
るようにすれば、それぞれの機器が認識可能な単語をす
べての機器が認識可能単語とすることができる。
Further, by sharing information, a recognizable word in a certain device can be recognized by another device, thereby preventing malfunction due to erroneous recognition. In other words, it goes without saying that in the conventional system in which each device independently recognizes, each device can recognize only words that can be recognized by itself. On the other hand, as in the present invention, if each device is connected to a network and can share each piece of information, words that can be recognized by each device can be regarded as words that can be recognized by all devices. it can.

【0087】これによって、きめ細かい高精度な認識処
理がなされるので、紛らわしい単語などを的確に認識処
理することができるので、誤認識による誤動作を防止で
きるようになる。
As a result, fine and accurate recognition processing is performed, so that confusing words and the like can be accurately recognized, so that malfunction due to erroneous recognition can be prevented.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態を説明する機器配置例を示
す図であり、限られた空間内に複数の音声認識機能を有
した機器がネットワークに接続された様子を概略的に示
す図である。
FIG. 1 is a diagram showing a device arrangement example for explaining an embodiment of the present invention, schematically showing a state where devices having a plurality of voice recognition functions are connected to a network in a limited space. It is.

【図2】図1で示された機器としてエアコンの構成図を
示すブロック図である。
FIG. 2 is a block diagram showing a configuration diagram of an air conditioner as the device shown in FIG.

【図3】図1で示された機器としてTVの構成図を示す
ブロック図である。
FIG. 3 is a block diagram showing a configuration diagram of a TV as the device shown in FIG. 1;

【図4】本発明の実施の形態の処理手順を説明するフロ
ーチャートである。
FIG. 4 is a flowchart illustrating a processing procedure according to the embodiment of the present invention.

【図5】限られた空間内に複数の音声認識機能を有した
機器が存在する場合の従来技術を説明する図である。
FIG. 5 is a diagram illustrating a conventional technique in a case where a plurality of devices having a voice recognition function exist in a limited space.

【符号の説明】[Explanation of symbols]

1 限られた空間としての部屋 2 エアコン 3 TV 4 音響機器 10 ネットワーク 21 エアコンにおける機器動作部 22 エアコンにおけるユーザ制御部 23 エアコンにおける音声認識を用いた機器制御部 24 エアコンにおけるネットワーク接続部 31 TVにおける機器動作部 32 TVにおけるユーザ制御部 33 TVにおける音声認識を用いた機器制御部 34 TVにおけるネットワーク接続部 41 マイクロホン 42 増幅器 43 A/D変換器 44 D/A変換器 45 増幅器 46 スピーカ 47 情報処理部 48 情報記憶部 DESCRIPTION OF SYMBOLS 1 Room as a limited space 2 Air conditioner 3 TV 4 Audio equipment 10 Network 21 Equipment operation part in air conditioner 22 User control part in air conditioner 23 Equipment control part using voice recognition in air conditioner 24 Network connection part in air conditioner 31 Equipment in TV Operating unit 32 User control unit in TV 33 Device control unit using voice recognition in TV 34 Network connection unit in TV 41 Microphone 42 Amplifier 43 A / D converter 44 D / A converter 45 Amplifier 46 Speaker 47 Information processing unit 48 Information storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04Q 9/00 301 H04Q 9/00 331A 311 G10L 3/00 551Z 321 531P 331 3/02 301D ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) H04Q 9/00 301 H04Q 9/00 331A 311 G10L 3/00 551Z 321 531P 331 3/02 301D

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 限られた空間内に音声認識機能を有する
複数の機器が存在し、これらの機器のいずれかに対し音
声コマンドを与えることで、その音声コマンドの与えら
れた機器がその音声コマンドを認識してその認識結果に
応じて所定の動作制御をなす音声認識を用いた機器制御
方法において、 前記複数の機器をネットワークに接続し、それぞれの機
器が個々に有する情報を当該ネットワークを介して相互
に交換し合い、前記ユーザの発話する音声コマンドに対
し、自己機器の有する情報に加えて前記ネットワークを
介して送られてくる他の機器の情報を参照して音声認識
を行って、その認識結果に応じた機器の動作制御を行う
ことを特徴とする音声認識を用いた機器制御方法。
A plurality of devices having a voice recognition function are present in a limited space, and when a voice command is given to any of these devices, the device given the voice command receives the voice command. In a device control method using voice recognition for performing predetermined operation control according to the recognition result based on the recognition result, the plurality of devices are connected to a network, and information individually owned by each device is transmitted via the network. It exchanges each other, and performs voice recognition for voice commands spoken by the user by referring to information of other devices sent through the network in addition to the information of the own device, and performs the recognition. A device control method using voice recognition, wherein operation control of the device is performed according to the result.
【請求項2】 前記相互に交換し合う情報は、少なくと
も、それぞれの機器を識別するための機器識別情報、そ
れぞれの機器が収集した雑音情報を含むことを特徴とす
る請求項1記載の音声認識を用いた機器制御方法。
2. The speech recognition according to claim 1, wherein said mutually exchanged information includes at least device identification information for identifying each device, and noise information collected by each device. Device control method using
【請求項3】 前記認識結果に応じた機器の動作制御を
行うまでの処理手順は、前記それぞれの機器を識別する
ための機器識別情報を前記ネットワークを介して取得し
て、当該ネットワーク上に存在する情報交換すべき機器
を認知するとともに、それぞれ機器の位置関係の測定を
行い、その後、音声コマンドが入力されると、上記それ
ぞれの機器の位置関係に基づき、ユーザの発話する音声
コマンドが自己機器に対して発せられたか否かを判定
し、当該音声コマンドが自己機器に対して発せられたも
のであると判定された場合には、その音声コマンドに対
する認識処理を行ってその認識結果に基づく機器の動作
制御を行うことを特徴とする請求項2記載の音声認識を
用いた機器制御方法。
3. A processing procedure until the operation control of a device according to the recognition result is performed is performed by acquiring device identification information for identifying the respective devices via the network, and acquiring the device identification information on the network. In addition to recognizing the devices to exchange information, measuring the positional relationship of each device, and then inputting a voice command, based on the positional relationship of each device, the voice command spoken by the user is transmitted to the own device. It is determined whether or not the voice command is issued to the own device, and if it is determined that the voice command is issued to the own device, the voice command is recognized and the device based on the recognition result is performed. 3. The apparatus control method according to claim 2, wherein the operation control is performed.
【請求項4】 前記音声認識を行う際、前記それぞれの
機器が収集した雑音情報を相互に交換し合い、その雑音
情報を用いて、音声コマンドに重畳する雑音の除去を行
って音声認識を行うことを特徴とする請求項2または3
記載の音声認識を用いた機器制御方法。
4. When the voice recognition is performed, noise information collected by the respective devices is exchanged with each other, and noise superimposed on a voice command is removed using the noise information to perform voice recognition. 4. The method according to claim 2, wherein
A device control method using the described speech recognition.
【請求項5】 前記音声コマンドに重畳する雑音は、機
器の定常的な運転音や環境上に定常的に存在する定常音
と、ネットワークに接続されている機器が動作すること
によって発する音声や音楽などの音であり、 前記定常音については、それぞれの機器が定常的雑音情
報として取得するとともに、取得した定常的雑音情報を
ネットワークを通じて他の機器との間で相互に交換しあ
ってそれぞれの機器で保存し、音声認識を行う際は、そ
の定常的雑音情報を音声コマンドから除去して音声認識
を行い、 前記音声や音楽などの音については、それを発する機器
がリアルタイムでその音を雑音情報として取得するとと
もに、ネットワークに接続されている他の機器もその雑
音情報をネットワークを通じてリアルタイムで取得し、
音声認識を行う際は、その雑音情報を音声コマンドから
除去して音声認識を行う、 ことを特徴とする請求項4記載の音声認識を用いた機器
制御方法。
5. The noise superimposed on the voice command includes a steady driving sound of the device or a steady sound that is constantly present on the environment, and a voice or music generated by the operation of the device connected to the network. For the stationary sound, each device acquires the stationary noise information as stationary noise information, and exchanges the acquired stationary noise information with another device through a network to exchange each device with each other. When performing speech recognition, the stationary noise information is removed from the voice command and speech recognition is performed. For the sound such as the voice or music, the device that emits the sound converts the sound in real time into noise information. As well as other devices connected to the network also acquire the noise information in real time through the network,
5. The apparatus control method using voice recognition according to claim 4, wherein when performing voice recognition, the noise information is removed from the voice command and voice recognition is performed.
【請求項6】 前記それぞれの機器が行う音声コマンド
に対する音声認識は、それぞれの機器同志が相互に情報
交換し合うことによって、ある機器における認識可能単
語を他の機器も認識可能とすることを特徴とする請求項
1から5のいずれかに記載の音声認識を用いた機器制御
方法。
6. The voice recognition for a voice command performed by each device is characterized in that the devices exchange information with each other so that a recognizable word in one device can be recognized by another device. An apparatus control method using voice recognition according to any one of claims 1 to 5.
【請求項7】 限られた空間内に音声認識機能を有する
複数の機器が存在し、これらの機器のいずれかに対し音
声コマンドを与えることで、その音声コマンドの与えら
れた機器がその音声コマンドを認識してその認識結果に
応じて所定の動作制御をなす音声認識を用いた機器制御
システムにおいて、 前記複数の機器は、それぞれの機器が相互に情報交換可
能となるようにネットワークに接続され、そのネットワ
ークに接続された前記複数の機器それぞれが、その機器
がもともと有する機器動作部とこの機器動作部の動作状
態の設定を行うユーザ操作部を有するとともに、少なく
とも、音声コマンドを受け付けてその音声コマンドを認
識し、その認識結果に基づいて前記機器動作部を制御す
る音声認識を用いた機器動作制御部と、ネットワークに
自己の機器を接続するためのネットワーク接続部とを有
してなり、 前記複数の機器それぞれが個々に有する情報を当該ネッ
トワークを介して相互に交換し合い、前記ユーザの発話
する音声コマンドに対し、自己の有する情報に加えて前
記ネットワークを介して送られてくる他の機器の情報を
参照して音声認識を行って、その認識結果に応じた機器
の動作制御を行うことを特徴とする音声認識を用いた機
器制御システム。
7. A plurality of devices having a voice recognition function are present in a limited space, and when a voice command is given to any of these devices, the device to which the voice command is given becomes the voice command. In a device control system using voice recognition that performs predetermined operation control according to the recognition result by recognizing the plurality of devices, the plurality of devices are connected to a network such that each device can mutually exchange information, Each of the plurality of devices connected to the network has a device operation unit originally included in the device and a user operation unit for setting an operation state of the device operation unit, and at least receives a voice command and receives the voice command. And a device operation control unit using voice recognition for controlling the device operation unit based on the recognition result. It has a network connection unit for connecting its own device, and mutually exchanges information individually possessed by the plurality of devices via the network, for voice commands spoken by the user, Speech recognition characterized by performing speech recognition by referring to information of another device sent via the network in addition to information owned by itself, and performing operation control of the device according to the recognition result. Equipment control system using.
【請求項8】 前記相互に交換し合う情報は、少なくと
も、それぞれの機器を識別するための機器識別情報、そ
れぞれの機器が収集した雑音情報を含むことを特徴とす
る請求項7記載の音声認識を用いた機器制御システム。
8. The speech recognition according to claim 7, wherein the mutually exchanged information includes at least device identification information for identifying each device, and noise information collected by each device. Equipment control system using.
【請求項9】 前記音声認識を用いた機器動作制御部が
行う認識結果に応じた機器の動作制御を行うまでの処理
手順は、前記それぞれの機器を識別するための機器識別
情報を前記ネットワークを介して取得して、当該ネット
ワーク上に存在する情報交換すべき機器を認知するとと
もに、それぞれ機器の位置関係の測定を行い、その後、
音声コマンドが入力されると、上記それぞれの機器の位
置関係に基づき、ユーザの発話する音声コマンドが自己
機器に対して発せられたか否かを判定し、当該音声コマ
ンドが自己機器に対して発せられたものであると判定さ
れた場合には、その音声コマンドに対する認識処理を行
ってその認識結果に基づく機器の動作制御を行うことを
特徴とする請求項8記載の音声認識を用いた機器制御シ
ステム。
9. The processing procedure until the operation control of the device according to the recognition result performed by the device operation control unit using the speech recognition is performed by transmitting device identification information for identifying each device to the network. Acquisition via, and recognize the devices that exist on the network to exchange information, measure the positional relationship of each device, and then
When a voice command is input, it is determined whether or not a voice command spoken by the user has been issued to the own device based on the positional relationship between the respective devices, and the voice command is issued to the own device. 9. A device control system using voice recognition according to claim 8, wherein when it is determined that the voice command has been received, the voice command is recognized and the operation of the device is controlled based on the recognition result. .
【請求項10】 前記音声認識を行う際、前記それぞれ
の機器が収集した雑音情報を相互に交換し合い、その雑
音情報を用いて、音声コマンドに重畳する雑音の除去を
行って音声認識を行うことを特徴とする請求項8または
9記載の音声認識を用いた機器制御システム。
10. When performing the voice recognition, the respective devices exchange noise information collected with each other, and use the noise information to remove noise superimposed on a voice command to perform voice recognition. An apparatus control system using voice recognition according to claim 8 or 9, wherein:
【請求項11】 前記音声コマンドに重畳する雑音
は、機器の定常的な運転音や環境上に定常的に存在する
定常音と、ネットワークに接続されている機器が動作す
ることによって発する音声や音楽などの音であり、 前記定常音については、それぞれの機器が定常的雑音情
報として取得するとともに、取得した定常的雑音情報を
ネットワークを通じて他の機器との間で相互に交換しあ
ってそれぞれの機器で保存し、音声認識を行う際は、そ
の定常的雑音情報を音声コマンドから除去して音声認識
を行い、 前記音声や音楽などの音については、それを発する機器
がリアルタイムでその音を雑音情報として取得するとと
もに、ネットワークに接続されている他の機器もその雑
音情報をネットワークを通じてリアルタイムで取得し、
音声認識を行う際は、その雑音情報を音声コマンドから
除去して音声認識を行う、 ことを特徴とする請求項10記載の音声認識を用いた機
器制御システム。
11. The noise superimposed on the voice command includes a steady driving sound of the device or a steady sound constantly present in the environment, and a voice or music generated by the operation of the device connected to the network. For the stationary sound, each device acquires the stationary noise information as stationary noise information, and exchanges the acquired stationary noise information with another device through a network to exchange each device with each other. When performing speech recognition, the stationary noise information is removed from the voice command and speech recognition is performed. For the sound such as the voice or music, the device that emits the sound converts the sound in real time into noise information. As well as other devices connected to the network also acquire the noise information in real time through the network,
The apparatus control system using voice recognition according to claim 10, wherein, when performing voice recognition, the noise information is removed from the voice command to perform voice recognition.
【請求項12】 前記それぞれの機器が行う音声コマン
ドに対する音声認識は、それぞれの機器同志が相互に情
報交換し合うことによって、ある機器における認識可能
単語を他の機器も認識可能とすることを特徴とする請求
項7から11のいずれかに記載の音声認識を用いた機器
制御システム。
12. The voice recognition for a voice command performed by each device, wherein each device exchanges information with each other so that a recognizable word in one device can be recognized by another device. An apparatus control system using voice recognition according to any one of claims 7 to 11.
【請求項13】 限られた空間内に存在する音声認識機
能を有した複数の機器をネットワークに接続し、それぞ
れの機器が個々に有する情報として、少なくとも、それ
ぞれの機器を識別するための機器識別情報、それぞれの
機器が収集した雑音情報を当該ネットワークを介して相
互に交換することを可能とし、ユーザの発話する音声コ
マンドに対し、自己機器の有する情報に加えて前記ネッ
トワークを介して送られてくる他の機器の情報を参照し
て音声認識を行って、その認識結果に応じた機器の動作
制御を行う音声認識を用いた機器制御プログラムを記録
した記録媒体であって、その機器制御プログラムは、 それぞれの機器を識別するための機器識別情報を前記ネ
ットワークを介して取得して、当該ネットワーク上に存
在する情報交換すべき機器を認知するとともに、それぞ
れ機器の位置関係の測定を行う手順と、 この位置関係の測定後、ユーザからの音声コマンドを待
つ状態とし、音声コマンドが入力されると、上記それぞ
れの機器の位置関係に基づき、ユーザの発話する音声コ
マンドが自己機器に対して発せられたか否かを判定する
手順と、当該音声コマンドが自己機器に対して発せられ
たものであると判定された場合には、その音声コマンド
に対する認識処理を行って、その認識結果に応じた機器
の動作制御を行う手順と、 を含むことを特徴とする音声認識を用いた機器制御プロ
グラムを記録した記録媒体。
13. A device identification device for connecting a plurality of devices having a voice recognition function existing in a limited space to a network and identifying at least each device as information individually owned by each device. Information, the noise information collected by each device can be exchanged with each other via the network, and in response to a voice command spoken by the user, in addition to the information possessed by the device itself, transmitted via the network A recording medium that records a device control program using voice recognition that performs voice recognition with reference to information of another device that comes and performs operation control of the device according to the recognition result, and the device control program is It is necessary to acquire device identification information for identifying each device via the network and exchange information existing on the network. A procedure for recognizing the device and measuring the positional relationship between the devices, and after measuring the positional relationship, waiting for a voice command from the user, and when a voice command is input, the positional relationship between the devices. A procedure for determining whether or not the voice command spoken by the user has been issued to the own device; and, if the voice command has been determined to be issued to the own device, Recording a device control program using voice recognition, comprising: performing a recognition process for a voice command and controlling operation of the device in accordance with the recognition result.
【請求項14】 前記音声認識を行う際、前記それぞれ
の機器が収集した雑音情報を相互に交換し合い、その雑
音情報を用いて、音声コマンドに重畳する雑音の除去を
行って音声認識を行うことを特徴とする請求項13記載
の音声認識を用いた機器制御プログラムを記録した記録
媒体。
14. When performing the voice recognition, the respective devices exchange noise information collected with each other, and use the noise information to remove noise superimposed on a voice command to perform voice recognition. 14. A recording medium storing a device control program using voice recognition according to claim 13.
【請求項15】 前記音声コマンドに重畳する雑音は、
機器の定常的な運転音や環境上に定常的に存在する定常
音と、ネットワークに接続されている機器が動作するこ
とによって発する音声や音楽などの音であり、 前記定常音については、それぞれの機器が定常的雑音情
報として取得するとともに、取得した定常的雑音情報を
ネットワークを通じて他の機器との間で相互に交換しあ
ってそれぞれの機器で保存し、音声認識を行う際は、そ
の定常的雑音情報を音声コマンドから除去して音声認識
を行い、 前記音声や音楽などの音については、それを発する機器
がリアルタイムでその音を雑音情報として取得するとと
もに、ネットワークに接続されている他の機器もその雑
音情報をネットワークを通じてリアルタイムで取得し、
音声認識を行う際は、その雑音情報を音声コマンドから
除去して音声認識を行う、 ことを特徴とする請求項14記載の音声認識を用いた機
器制御プログラムを記録した記録媒体。
15. The noise superimposed on the voice command,
A steady driving sound of a device or a steady sound that is constantly present on the environment, and a sound such as a sound or music generated by the operation of a device connected to a network. When the device obtains the stationary noise information, and exchanges the acquired stationary noise information with other devices through the network and saves them in each device, and performs speech recognition, The noise information is removed from the voice command to perform voice recognition. For the sound such as the voice or music, a device that emits the sound obtains the sound as noise information in real time, and other devices connected to the network. Also obtains the noise information in real time through the network,
15. The recording medium according to claim 14, wherein when performing voice recognition, the noise information is removed from the voice command to perform voice recognition.
【請求項16】 前記それぞれの機器が行う音声コマン
ドに対する音声認識は、それぞれの機器同志が相互に情
報交換し合うことによって、ある機器における認識可能
単語を他の機器も認識可能とすることを特徴とする請求
項13から15のいずれかに記載の音声認識を用いた機
器制御プログラムを記録した記録媒体。
16. The speech recognition for a speech command performed by each device is characterized in that each device exchanges information with each other so that a recognizable word in one device can be recognized by another device. A recording medium recording a device control program using voice recognition according to any one of claims 13 to 15.
JP2000383808A 2000-12-18 2000-12-18 Device control method using speech recognition, device control system using speech recognition, and recording medium recording device control program using speech recognition Expired - Fee Related JP4109414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000383808A JP4109414B2 (en) 2000-12-18 2000-12-18 Device control method using speech recognition, device control system using speech recognition, and recording medium recording device control program using speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000383808A JP4109414B2 (en) 2000-12-18 2000-12-18 Device control method using speech recognition, device control system using speech recognition, and recording medium recording device control program using speech recognition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006090652A Division JP2006227634A (en) 2006-03-29 2006-03-29 Equipment control method using voice recognition, equipment control system using voice recognition and recording medium which records equipment control program using voice recognition

Publications (2)

Publication Number Publication Date
JP2002182679A true JP2002182679A (en) 2002-06-26
JP4109414B2 JP4109414B2 (en) 2008-07-02

Family

ID=18851394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000383808A Expired - Fee Related JP4109414B2 (en) 2000-12-18 2000-12-18 Device control method using speech recognition, device control system using speech recognition, and recording medium recording device control program using speech recognition

Country Status (1)

Country Link
JP (1) JP4109414B2 (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212641A (en) * 2002-12-27 2004-07-29 Toshiba Corp Voice input system and terminal device equipped with voice input system
JP2009025714A (en) * 2007-07-23 2009-02-05 Xanavi Informatics Corp In-vehicle device and speech recognition method
JP2016004270A (en) * 2014-05-30 2016-01-12 アップル インコーポレイテッド Reducing need for manual start/end-pointing and trigger phrases
US9293142B2 (en) 2012-10-02 2016-03-22 Denso Corporation Voice recognition system
US9418665B2 (en) 2013-08-29 2016-08-16 Panasonic Intellectual Property Corporation Of America Method for controlling device and device control system
US9852733B2 (en) 2013-08-29 2017-12-26 Panasonic Intellectual Property Corporation Of America Device control method, display control method, and purchase settlement method
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
KR101972545B1 (en) * 2018-02-12 2019-04-26 주식회사 럭스로보 A Location Based Voice Recognition System Using A Voice Command
KR20190043576A (en) * 2016-09-27 2019-04-26 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. Communication device
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
WO2019187543A1 (en) * 2018-03-30 2019-10-03 ソニー株式会社 Information processing device and information processing method
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
WO2019235134A1 (en) * 2018-06-07 2019-12-12 ソニー株式会社 Information generation device, information processing system, information processing method, and program
US10522139B2 (en) 2016-10-12 2019-12-31 Qingdao Hisense Electronics Co., Ltd. Electronic device and control method thereof
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59148097A (en) * 1983-02-14 1984-08-24 富士通株式会社 Voice recognition system
JPH0566793A (en) * 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd Speech input device
JPH11311996A (en) * 1997-10-23 1999-11-09 Sony Internatl Europ Gmbh Speech device, and remotely controllable network equipment
JPH11327583A (en) * 1998-03-27 1999-11-26 Internatl Business Mach Corp <Ibm> Network spoken language vocabulary system
JP2000310999A (en) * 1999-04-26 2000-11-07 Asahi Chem Ind Co Ltd Facilities control system
JP2001506382A (en) * 1997-10-20 2001-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Pattern recognition registration in distributed systems
JP2002116797A (en) * 2000-10-11 2002-04-19 Canon Inc Voice processor and method for voice recognition and storage medium
JP2002540479A (en) * 1999-03-26 2002-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Client-server speech recognition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59148097A (en) * 1983-02-14 1984-08-24 富士通株式会社 Voice recognition system
JPH0566793A (en) * 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd Speech input device
JP2001506382A (en) * 1997-10-20 2001-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Pattern recognition registration in distributed systems
JPH11311996A (en) * 1997-10-23 1999-11-09 Sony Internatl Europ Gmbh Speech device, and remotely controllable network equipment
JPH11327583A (en) * 1998-03-27 1999-11-26 Internatl Business Mach Corp <Ibm> Network spoken language vocabulary system
JP2002540479A (en) * 1999-03-26 2002-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Client-server speech recognition
JP2000310999A (en) * 1999-04-26 2000-11-07 Asahi Chem Ind Co Ltd Facilities control system
JP2002116797A (en) * 2000-10-11 2002-04-19 Canon Inc Voice processor and method for voice recognition and storage medium

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212641A (en) * 2002-12-27 2004-07-29 Toshiba Corp Voice input system and terminal device equipped with voice input system
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP2009025714A (en) * 2007-07-23 2009-02-05 Xanavi Informatics Corp In-vehicle device and speech recognition method
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9293142B2 (en) 2012-10-02 2016-03-22 Denso Corporation Voice recognition system
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10152976B2 (en) 2013-08-29 2018-12-11 Panasonic Intellectual Property Corporation Of America Device control method, display control method, and purchase settlement method
US9852733B2 (en) 2013-08-29 2017-12-26 Panasonic Intellectual Property Corporation Of America Device control method, display control method, and purchase settlement method
US9418665B2 (en) 2013-08-29 2016-08-16 Panasonic Intellectual Property Corporation Of America Method for controlling device and device control system
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
JP2016004270A (en) * 2014-05-30 2016-01-12 アップル インコーポレイテッド Reducing need for manual start/end-pointing and trigger phrases
US11810562B2 (en) 2014-05-30 2023-11-07 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11367436B2 (en) 2016-09-27 2022-06-21 Hewlett-Packard Development Company, L.P. Communication apparatuses
KR20190043576A (en) * 2016-09-27 2019-04-26 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. Communication device
KR102204488B1 (en) * 2016-09-27 2021-01-18 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. Communication device
US10522139B2 (en) 2016-10-12 2019-12-31 Qingdao Hisense Electronics Co., Ltd. Electronic device and control method thereof
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US10884096B2 (en) 2018-02-12 2021-01-05 Luxrobo Co., Ltd. Location-based voice recognition system with voice command
CN112236815A (en) * 2018-02-12 2021-01-15 乐思罗博股份有限公司 Location based speech recognition system by voice command
JP2021505923A (en) * 2018-02-12 2021-02-18 ラックスロボ カンパニー,リミティド Position-based voice recognition system by voice command (A Location Based Voice Recognition System System Using A Voice Command)
WO2019156272A1 (en) * 2018-02-12 2019-08-15 주식회사 럭스로보 Location-based voice recognition system through voice command
KR101972545B1 (en) * 2018-02-12 2019-04-26 주식회사 럭스로보 A Location Based Voice Recognition System Using A Voice Command
WO2019187543A1 (en) * 2018-03-30 2019-10-03 ソニー株式会社 Information processing device and information processing method
WO2019235134A1 (en) * 2018-06-07 2019-12-12 ソニー株式会社 Information generation device, information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP4109414B2 (en) 2008-07-02

Similar Documents

Publication Publication Date Title
JP2002182679A (en) Apparatus control method using speech recognition and apparatus control system using speech recognition as well as recording medium recorded with apparatus control program using speech recognition
JP2006227634A (en) Equipment control method using voice recognition, equipment control system using voice recognition and recording medium which records equipment control program using voice recognition
JP3838029B2 (en) Device control method using speech recognition and device control system using speech recognition
US11631403B2 (en) Apparatus, system and method for directing voice input in a controlling device
US11158313B2 (en) System for audio distribution including network microphones for voice applications
JP4086280B2 (en) Voice input system, voice input method, and voice input program
WO2019013835A1 (en) Apparatus, system and method for directing voice input in a controlling device
JP4294856B2 (en) hearing aid
JP2019159306A (en) Far-field voice control device and far-field voice control system
US20180308483A1 (en) Voice recognition apparatus and voice recognition method
JP2019159307A (en) Terminal bracket and far-field voice interaction system
CN107863106B (en) Voice recognition control method and device
JP2019086535A (en) Transmission control device and program
CN110473555B (en) Interaction method and device based on distributed voice equipment
CN108592349A (en) A kind of air-conditioner control system
CN111667825A (en) Voice control method, cloud platform and voice equipment
CN107077844A (en) Method and device for realizing voice combined assistance and robot
JP2022534692A (en) A method for controlling a device using voice recognition, and a device that implements the same
EP3735687A1 (en) Apparatus, system and method for directing voice input in a controlling device
US20220122600A1 (en) Information processing device and information processing method
CN111183478B (en) Household electrical appliance system
CN111183416B (en) Household electrical appliance system
JP2020010132A (en) Speaker position determination method, speaker position determination system, acoustic device, and program
JP6921311B2 (en) Equipment control system, equipment, equipment control method and program
CN112216279A (en) Voice transmission method, intelligent terminal and computer readable storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060329

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060517

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060707

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120411

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130411

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130411

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140411

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees