JP2020095737A - Communication apparatus, control method, and program - Google Patents
Communication apparatus, control method, and program Download PDFInfo
- Publication number
- JP2020095737A JP2020095737A JP2020031888A JP2020031888A JP2020095737A JP 2020095737 A JP2020095737 A JP 2020095737A JP 2020031888 A JP2020031888 A JP 2020031888A JP 2020031888 A JP2020031888 A JP 2020031888A JP 2020095737 A JP2020095737 A JP 2020095737A
- Authority
- JP
- Japan
- Prior art keywords
- communication device
- voice
- communication
- voice command
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【課題】どのデバイスに対して動作させたいかということをユーザーが考える煩わしさを解消できるようにする。【解決手段】通信機器全体の動作を制御する制御手段と、他の通信機器との間で通信を行う通信手段と、前記通信手段によって通信可能な連携相手の機器情報を保持するとともに、前記制御手段によって動作するプログラムを記憶部に記憶する記憶手段と、ユーザーからの音声入力を受け付ける音声入力手段と、前記音声入力手段で受け付けた音声を解析して音声コマンドを抽出する音声解析手段とを備えた通信機器であって、前記音声解析手段により音声コマンドが抽出された場合、前記制御手段は、前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信手段を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定する。【選択図】 図3PROBLEM TO BE SOLVED: To eliminate the troublesomeness of a user thinking about which device he / she wants to operate. SOLUTION: A control means for controlling the operation of the entire communication device, a communication means for communicating with another communication device, and device information of a collaborating partner capable of communicating by the communication means are held and the control is performed. It is provided with a storage means for storing a program operated by the means in a storage unit, a voice input means for receiving voice input from a user, and a voice analysis means for analyzing the voice received by the voice input means and extracting a voice command. When a voice command is extracted by the voice analysis means, the control means may cooperate with each other through the communication means based on the device information of the cooperation partner stored in the storage unit. The state of each communication device is exchanged with the communication device of the above, and the communication device that responds to the voice command is determined based on the states of the plurality of communication devices. [Selection diagram] Fig. 3
Description
本発明は通信機器及び通信機器の制御方法に関し、特に、ユーザーが発する音声を認識可能な通信機器に関する。 The present invention relates to a communication device and a communication device control method, and more particularly to a communication device capable of recognizing a voice uttered by a user.
近年、スマートフォンやウエアラブルデバイスが市場に普及してきている。これらのデバイスにおいて、ユーザーがデバイスを操作するための入力方法の一つに音声入力がある。例えば、デバイス上でメールアプリケーションを立ち上げておき、タッチパネル上に表示されたキーボードを操作せず、ユーザーの音声による文字入力を行う場合等である。また、音声による文字入力にとどまらず、全くデバイスを触らずに音声による掛け声で音声コマンドを受信するモードへとデバイスが移行し、その後に受けた音声コマンドを実施するデバイスがある。 In recent years, smartphones and wearable devices have become popular in the market. In these devices, voice input is one of the input methods for the user to operate the device. For example, there is a case where a mail application is launched on the device and characters are input by the user's voice without operating the keyboard displayed on the touch panel. Further, there is a device in which the device shifts to a mode in which the voice command is received not only by the voice character input but also by the voice shout without touching the device at all, and then executes the received voice command.
また、これらのデバイスを複数台所有し持ち歩くユーザーも増えている。このような場合、ユーザーが音声操作を開始しようとすると、複数のデバイスが応答する場合があり、1台のデバイスに対してのみ操作を行おうとすると、デバイスに口を近づけて小声で発話するなどの対策が必要であり、操作が容易にできない。 In addition, an increasing number of users carry around these devices in their kitchens. In such a case, when the user tries to start a voice operation, a plurality of devices may respond, and when an operation is performed on only one device, the mouth is approached to the device and a small voice is uttered. It is necessary to take measures against and the operation is not easy.
この問題を解決するべく特許文献1においては、相手となるデバイスを特定するため、相手デバイスの固有名称を音声コマンドに含めてユーザーが発話することで特定のデバイスに特定の動作をさせることを可能としている。 In order to solve this problem, in Patent Document 1, in order to specify a device to be a partner, it is possible to cause the specific device to perform a specific operation by including the unique name of the partner device in a voice command and uttering by the user. I am trying.
しかしながら、特許文献1においては、コマンドに応答するデバイスを特定するために、デバイスの固有識別情報を音声コマンドとして発音しなければならず、状況に応じてユーザーが適切なデバイスの固有識別情報を発音しなければならない煩わしさがあった。
本発明は前述の問題点に鑑み、どのデバイスに対して動作させたいかということをユーザーが考える煩わしさを解消できるようにすることを目的とする。
However, in Patent Document 1, in order to identify the device that responds to the command, the unique identification information of the device must be pronounced as a voice command, and the user can pronounce the proper unique identification information of the device depending on the situation. There was an annoyance to do.
The present invention has been made in view of the above-mentioned problems, and an object thereof is to eliminate the troublesomeness for the user to consider which device he/she wants to operate.
本発明の通信機器は、通信機器全体の動作を制御する制御手段と、他の通信機器との間で通信を行う通信手段と、前記通信手段によって通信可能な連携相手の機器情報を保持するとともに、前記制御手段によって動作するプログラムを記憶部に記憶する記憶手段と、ユーザーからの音声入力を受け付ける音声入力手段と、前記音声入力手段で受け付けた音声を解析して音声コマンドを抽出する音声解析手段とを備えた通信機器であって、前記音声解析手段により音声コマンドが抽出された場合、前記制御手段は、前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信手段を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定することを特徴とする。 The communication device of the present invention holds control means for controlling the operation of the entire communication device, communication means for communicating with other communication devices, and device information of a partner with which the communication means can communicate. A storage unit for storing a program operated by the control unit in a storage unit; a voice input unit for receiving a voice input from a user; and a voice analysis unit for analyzing a voice received by the voice input unit and extracting a voice command. When the voice command is extracted by the voice analysis means, the control means, based on the device information of the cooperation partner stored in the storage unit, through the communication means, It is characterized in that the state of each communication device is exchanged with a plurality of cooperating communication devices, and the communication device that responds to the voice command is determined based on the states of the plurality of communication devices.
本発明によれば、複数のデバイスを意識することなくユーザーの意図に沿ったデバイスが応答することを実現し、ユーザーの煩わしさを低減することができる。 According to the present invention, it is possible to realize a device that responds to a user's intention without being conscious of a plurality of devices, and reduce the user's annoyance.
以下、図面を用いて本発明の好ましい実施の形態を説明する。
なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[第1の実施形態]
図1は、本実施形態における通信機器の構成例を示すブロック図である。
図1において、通信機器100と通信機器110とは同一構成であり、2つの通信機器間にて通信を行う。実際には、より複数の通信機器があってもよいが、ここでは最小構成の2台の通信機器を例に挙げて説明する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
[First Embodiment]
FIG. 1 is a block diagram showing a configuration example of a communication device according to this embodiment.
In FIG. 1, the
通信機器100について説明する。
制御部106は、通信機器全体の制御を行う。制御部106は、記憶部101に保持されたアプリケーションプログラムを読み出し、実行する。また、制御部106は、後述するマイク105で集音された音を解析して音声コマンドを抽出する音声解析機能を有する。
The
The
記憶部101は、この通信機器100で動かすプログラムや、通信可能な連携相手の通信機器(ここでは通信機器110)との連携状況が格納されるメモリである。
タッチパネル102は、ユーザーに対する表示を行う表示部として機能するとともに、ユーザーの指による操作を受け付けるインターフェイスとして機能する。
画面合成部103は、記憶部101に格納されるアプリケーションの実行画面や、画像等のデータを他のインターフェイス部材とともに合成し、タッチパネル102に表示できる形にする。
The
The
The
通信部104は、電波を用いる通信を行うブロックであり外部装置やサーバー、連携する通信機器と通信するためのインターフェイスである。通信部104は主にWIFI、Bluetooth(登録商標)、Bluetooth LE等の通信方式で通信を行う。マイク105は、音声入力部であり外界の音を集音するデバイスである。マイク105は、感知した音声の音圧を数値化し、数値化した音圧を記憶部101に常に保持しておく。記憶部101に保持している音圧情報によって通信機器に届く音の大きさを判断できる。
通信機器110の構成は、通信機器100と同様であるため、通信機器110の構成については説明を割愛する。
The
Since the configuration of the
ユーザーからの音声コマンドを2台の通信機器100、110が協調して処理するため、2台の通信機器のペアリングを行う。ペアリング操作とは、通信機器同士を常時連携させるための初めの操作のことである。
通信機器100と通信機器110のペアリングを図2のフローチャートを用いて説明する。
Since the two
Pairing between the
S200は、通信機器100側の動作を説明するフローチャートであり、通信機器100側からペアリングを要求する場合を示している。S210は通信機器110側の動作を説明するフローチャートである。
S201において、ペアリングを開始する。制御部106は、記憶部101からペアリング用のアプリケーションを呼び出して処理し、ペアリングの進行状況の画面をタッチパネル102に表示する。その後、S202に進む。
S200 is a flowchart for explaining the operation on the
In S201, pairing is started. The
初めは、他の通信機器とペアリングしていない旨の情報が通信機器100の記憶部101に保持されている。このため、S202で制御部106は、通信部104を用いてペアリング相手に自機を発見してもらうためにブロードキャスト信号(いわゆるアドバタイズ)を発信する。ブロードキャスト信号は、受信相手を特定しない通信方式である。この通信については、無線LANやBluetooth等の通信で通常用いられる方式であるため詳細は割愛する。その後、S203に進む。
S203では、制御部106は、相手側の通信機器から、アドバタイズに対する応答があったかどうかを一定時間待つ。応答がなければ処理を終了する。応答があればS204に進む。
Initially, information indicating that the
In S203, the
S204では、相手側通信機器から応答があったことに応じて、制御部106はペアリングのアプリケーションはタッチパネル102にパスワードを入力するようユーザーに求める。ここで求めるパスワードは、相手側通信機器の表示画面に表示された4桁の数字であり、ユーザーが目視で確認した相手側のパスワードを通信機器100のタッチパネル102を用いて入力する。その後、S205に進む。
S205では、制御部106は、入力されたパスワードが、相手側通信機器に設定されているパスワードと一致したか否かを確認し、一致しない場合は処理を終了する。一致した場合はS206に進む。
In step S204, the
In S205, the
S206では、制御部106は、記憶部101に相手側の機器情報を保持する。ここで、相手側の機器情報とは相手と通信を常時行うためのIPアドレスや、MACアドレスである。これにより、ペアリングが成立する。その後、S207に進む。
S207では、制御部106は、ペアリング相手にペアリングの成功通知を通信部104により送信し、処理を終了する。
In S206, the
In step S207, the
次に、上記の通信機器100の動作に対応する通信機器110の動作について述べる。S211はIdle状態であり、定期的にS212に進む。
S212では、通信機器110側の通信部114がペアリングのためのブロードキャスト信号(アドバタイズ)を受信したか否かをチェックしており、信号を受信した場合は213に進み、そうでない場合は211に戻る。
Next, the operation of the
In S212, the
S213では、ペアリングのためのブロードキャスト信号を通信部114が受信したことに応じて、制御部116は、タッチパネル112に4ケタのパスワードとなる数字を表示する。その後、S214に進む。
S214では、制御部116は、相手側の通信機器からペアリング成功の通知を通信部114が受けたか否かを判断し、ペアリング成功通知が相手側通信機器から受信できればS215に進み、そうでなければ処理を終了する。
In step S<b>213, in response to the
In S214, the
S215では、制御部116は、相手側の通信機器100の情報を通信機器110の記憶部111に保持する。ここで、相手側の情報とは相手と通信を常時行うためのIPアドレスや、MACアドレスである。これにより、ペアリングが成立する。また、制御部116は、タッチパネル112にペアリングが成功したことを表示してユーザーに通知する。
以後、二つの通信機器はお互いにペアリングされたことを双方の記憶部(101、111)に保持しているため相互連携が可能となる。
In S215, the
After that, the two communication devices hold the fact that they have been paired with each other in both storage units (101, 111), so that they can cooperate with each other.
次に、ユーザーが発した音声コマンドに対して通信機器100と通信機器110が協調して応答する場合について、一つの通信機器(通信機器100)の動作を、図3のフローチャートを用いて説明する。ここでは、通信機器100の動作を説明するが、同様の処理を通信機器110も実行する。なお、図3のフローチャートは、上記のペアリングの処理が完了している状態で開始される。
S300で通信機器100は処理を開始すると、S301に進む。
S301では、通信機器100のマイク105が常時外界の音を受け付けており、制御部106がその音を分析して音声コマンドとして抽出し認識できたか否かを繰り返し処理する。音声コマンドとして認識できた場合は、その音圧値とともに記憶部101に保持する。音声コマンドとして認識できた場合はS302に進み、そうでなければ301を繰り返す。
Next, the operation of one communication device (communication device 100) in the case where the
When the
In S301, the
S302では、制御部106は、記憶部101に記憶しているペアリング相手(通信機器110)に対して、音声コマンドを受け付けたか否かを問い合わせる。通信部104を通してペアリング相手(通信機器110)と通信を行う。その後、S303に進む。
S303では、制御部106は、通信機器100がマスターになるべきか否かを判断する処理を行う。ここでは、ペアリング相手(通信機器110)からの応答を受け取る。この応答には、ペアリング相手(通信機器110)の記憶部111に保持されていた製造番号の情報を含む。その応答結果と通信機器100の記憶部101に記憶された製造番号の比較をふまえて、通信機器100がマスターになるべきかどうかを制御部106が判断する。
In S302, the
In S303, the
マスターとは、複数の通信機器が協調して動作するための指揮官として働くデバイスのことである。ここでは、マスターを決定する方法として、ペアリング相手(通信機器110)の製造番号を比較する。製造番号は、各通信機器でユニークであり、同一のものは存在しない。本実施形態では、この製造番号をそれぞれの通信機器が認識し、一番若い番号の通信機器がマスターになる。通信機器100がマスターになる場合はS304に進み、そうでなければS309に進む。
A master is a device that acts as a commander for cooperating multiple communication devices. Here, as a method of determining the master, the serial numbers of the pairing partners (communication device 110) are compared. The manufacturing number is unique to each communication device, and the same one does not exist. In this embodiment, each communication device recognizes this manufacturing number, and the communication device with the smallest number becomes the master. If the
S304では、制御部106は、音声コマンドに応答する通信機器を決定する。マスター(通信機器100)が、通信機器110の記憶部111に音声コマンドとともに記憶している音圧値を通信によって受取り、通信機器100の記憶部101に記憶している音圧値とを比較する。マスターは、ユーザーの発する声が一番大きく受けられた(音圧の大きな)通信機器を音声コマンドに応答する通信機器として決定する。なぜなら、ユーザーの声が大きく入力される機器は、すなわちユーザーが口を近づけて音声コマンドを発声したことになり、ユーザーがその機器に対して音声コマンドを入力したいと考えていると予想されるからである。このように、通信機器の状態を交換し、優先順位の高い応答可能な通信機器が応答するように決定する。その後、S305に進む。
In S304,
S305では、制御部106は、通信機器100が音声コマンドに応答する通信機器になるか否かを判断し、通信機器100が音声コマンドに応答する通信機器になると判断した場合はS306に進み、そうでなければS310に進む。
S306では、制御部106は、音声コマンドに応じた各種処理を行う。制御部106は、音声コマンドに応じて、必要なプログラムを記憶部101から取り出し処理する。例えば、ユーザーが「今の時間は?」という音声コマンドを発した場合、制御部106は時間を管理するアプリケーションを記憶部101から読み出す。そして、このアプリケーションを制御部106が処理することで、応答を要求された通信機器が「12:00です」と応答する。次に、S312に進む。
In step S305, the
In S306, the
S312では、制御部106は、通信機器100がマスターであるか否かを判断し、マスターであればS308に進み、マスターでなければS307に進む。
S307では、応答終了時に、制御部106は、マスターである通信機器110に音声コマンドに対する応答が終了したことを通信部104にて通知した後、S308に進む。
S308では、再度音声コマンド受付モードとなり、この動作フローを繰り返す。
In S312, the
In step S307, when the response ends, the
In S308, the voice command accepting mode is entered again, and this operation flow is repeated.
S309では、通信機器100はマスターにならないことが確定したため、制御部106は、マスターの通信機器からの指示が来るまで待つ。マスターの通信機器から指示が来た場合はS305に進み、そうでなければこの処理を繰り返す。
In S309, since it is determined that the
S310では、通信機器100が応答する通信機器にならないことが確定したため、制御部106は、タッチパネル102に対して「他の通信機器で応答中」のように、通信機器100が音声コマンドを処理していないことを表示する。さらにこのとき、新しい音声コマンドを受け付けないように制御部106は制御する。次に、S311に進む。
S311では、応答する通信機器110から音声コマンドの処理が終了したことの通知を待つ。他の応答する通信機器から処理終了の合図があればS308に進み、そうでなければこの処理を繰り返す。
In S310, since it is determined that the
In step S311, the
このような動作で、まずは複数の通信機器を協調させるためのマスターを決定し、そのマスターが応答する通信機器を決定し、その通信機器に音声応答の処理を実施させる。このようにすることで、複数の通信機器が各々音声コマンドを処理することなく協調動作で最適な通信機器だけが応答する。
本実施形態では、通信機器100と通信機器110の2台の構成について説明したが、2台以上の構成であってもよい。
With such an operation, first, a master for coordinating a plurality of communication devices is determined, a communication device to which the master responds is determined, and the communication device is caused to perform a voice response process. By doing so, only the optimum communication device responds in a cooperative operation without the plurality of communication devices processing voice commands.
In the present embodiment, the configuration of two
また、マスターを決定する処理について、製造番号を比較する方法を説明したがそれ以外の方法でマスターを決定してもよい。例えば、通信に無線LANを利用する場合には、他の通信機器と通信するためのIPアドレスを数列として考え、若い番号の機器をマスターとしてもよい。また、通信にBluetooth LEを利用する場合には、BDAddrを数列として考え、若い番号の機器をマスターとしてもよい。記憶部101にあらかじめマスターとなる機器の優先順位がユーザーによって登録されていてもよい。なお、ここでいうマスターとは、無線LANの規格に定められるアクセスポイントとステーションの関係や、Bluetoothの規格に定められるマスターとスレーブの関係とは独立した概念である。本実施形態におけるマスターは、通信における処理(例えば応答すべき機器を判断する処理等)の主体を示すものである。
Further, as for the process of determining the master, the method of comparing the serial numbers has been described, but the master may be determined by another method. For example, when a wireless LAN is used for communication, an IP address for communicating with another communication device may be considered as a sequence, and a device with a smaller number may be the master. When Bluetooth LE is used for communication, BDAddr may be considered as a sequence and a device with a smaller number may be the master. The priority order of the master device may be registered in the
[第2の実施形態]
本実施形態を説明するために、図4の通信機器400の構成を説明する。
通信機器400は、基本的には図1で示した通信機器100と同じであり、101〜106の各ブロックは401〜406のそれぞれと対応するため説明を割愛する。通信機器100の構成以外のブロックについて説明する。
[Second Embodiment]
In order to explain the present embodiment, the configuration of the
The
スピーカー407は、記憶部401に記憶された音声データを外部に出力するためのものである。例えば、音声データは、通信部404によって他の通信機器から受信した音声データである。また、制御部406はスピーカー407から音を出す、出さない、音量を上げる、下げる等の制御が可能である。
The
位置・加速度検知部408は、この通信機器400の地球上の位置情報をGPS(Global Positioning System)で取得し、この通信機器400に懸る加速度を検出する。位置・加速度検知部408は、さらに、ジャイロセンサーも有しており、通信機器400の姿勢を検知して姿勢情報を取得する姿勢検知機能も有している。位置・加速度検知部408によりこの通信機器400が移動しているか否か等の情報が得られる。これらの情報は、逐次記憶部401に記憶されている。
The position/
外部接続409は、この通信機器400が外部のPC(Personal Computer)に接続するためのI/Fであり、例えばUSB、WIFIがある。外部と接続しているか否かの情報は逐次記憶部401に記憶されている。
カメラ410は、通信機器400の外界を撮影するためのカメラであり、カメラで撮影した映像は記憶部401に一時的に記憶され、制御部406が解析して人物認証等が可能である。カメラが動作しているか否かの情報は、逐次記憶部401に記憶されている。
また、通信機器420の構成要素は先に説明した通信機器400と同じであり、説明を割愛する。
The
The
Further, the components of the
第1の実施形態では、音声コマンドに応答するデバイスを決定する際に、複数の通信機器に供えられたマイクが受ける音圧が一番強い通信機器を選択する構成を説明した。
本実施形態では、応答する通信機器を決定する方法についてのみ第1の実施形態と異なり、他の動作は同様である。よって、図3のS304の処理のみ異なり他の動作は同様であるため説明を割愛する。
In the first embodiment, the configuration has been described in which, when determining a device that responds to a voice command, the communication device having the strongest sound pressure received by the microphones provided for the plurality of communication devices is selected.
The present embodiment differs from the first embodiment only in the method of determining the communication device that responds, and other operations are the same. Therefore, only the process of S304 in FIG. 3 is different and the other operations are the same, and thus the description thereof is omitted.
ここでは、図4で示す通信機器400について説明し、ペアリング相手の通信機器420と協調動作する場合[(1)〜(3)]を説明する。通信機器400と通信機器420では通信機器400がマスターとなる前提で説明する。
(1)通信機器400の動作で、図3のS304において、マスターである通信機器400の制御部406は、タッチパネル402の使用状況を記憶部401に記憶するよう指示する。また、制御部406は、通信機器420のタッチパネル422の使用状況を記憶部401に記憶するよう通信部404を介して通信機器420に指示する。その結果、記憶部401に2台の通信機器の動作状況が記憶される。
Here, the
(1) In the operation of the
制御部406は、記憶部401に格納された通信機器400、420のタッチパネル使用状況を判断する。そして、通信機器400のタッチパネル402が使用中で、通信機器420のタッチパネル422が未使用の場合は、通信機器420を音声コマンドに応答する通信機器として決定する。
これは、音声コマンドをユーザーが発音した場合、使用中の通信機器をタッチパネルの操作画面を一時的に音声コマンドモード処理の画面に切り替えると、ユーザーの操作を邪魔することを防ぐためである。
The
This is to prevent the user's operation from being disturbed if the communication device in use is temporarily switched from the operation screen of the touch panel to the screen of the voice command mode processing when the user pronounces the voice command.
(2)ここでは、記憶部401に2台の通信機器の動作状況が記憶されると説明した。しかし、動作状況には他にも制御部406、426が処理しているプログラムの負荷状況や、外部接続409、429がそれぞれPC等に接続されている場合か否かの接続状況、または、通信機器400、420のカメラ410、430の動作状況であってもよい。
通信機器400の動作で、図3のS304において、マスターである通信機器400の制御部406は、位置・加速度検知部408の検出結果を記憶部401に記憶するよう指示する。また、制御部406は、通信機器420の位置・加速度検知部428の検出を記憶部401に記憶するよう通信部404を介して通信機器420に指示する。その結果、記憶部401に2台の通信機器の動作状況が記憶される。
(2) Here, it has been described that the operation statuses of the two communication devices are stored in the
In operation of the
マスターである通信機器400の制御部406が記憶部401に記憶された各通信機器の検出結果を判断し、通信機器の天地が逆転していない方の通信機器を音声コマンドに応答する通信機器として決定する。
これは、天地が逆転した状態の通信機器は鞄に入れられた状態等の状態であると判断でき、ユーザーの音声コマンド処理を行うのにふさわしくないと考えられるためである。音声コマンドの種類によっては通信機器400、420のタッチパネル402、422に情報を表示することがあり、タッチパネル402、422に表示してもユーザーに見てもらえない可能性があるためである。
The
This is because it can be determined that the communication device in the upside-down state is in a state such as being put in the bag, and it is considered unsuitable for performing voice command processing of the user. This is because, depending on the type of voice command, information may be displayed on the
(3)通信機器400の動作で、図3のS304において、マスターである通信機器400の制御部406は、スピーカー407からの音の出力を禁止しているか否かの結果を記憶部401に記憶するよう指示する。また、制御部406は、通信機器420のスピーカー427からの音の出力を禁止しているか否かの結果を記憶部401に記憶するよう通信部404を介して通信機器420に指示する。その結果、記憶部401に2台の通信機器の動作状況が記憶される。
(3) In the operation of the
マスターである通信機器400の制御部406が記憶部401に記憶された各通信機器の検出結果を判断し、通信機器のスピーカーからの音の出力を禁止していない方の通信機器を音声コマンドに応答する通信機器として決定する。
The
[第3の実施形態]
第1の実施形態、第2の実施形態では、各通信機器が受け取る音声コマンドが同じ場合を前提として説明した。本実施形態では各通信機器のマイクが受け制御部で解釈された音声コマンドに違いが発生した場合の動作について述べる。
ユーザーの発する音声コマンドは周囲の雑音や、通信機器とユーザーの位置関係が影響し、各通信機器が認識する音声コマンドが異なる場合がある。この問題の解決方法について、図1に示した通信機器100を3台用いた例で説明する。構成は先に述べたので割愛する。3台をそれぞれ識別するために通信機器100A、通信機器100B、通信機器100Cと呼ぶ。
[Third Embodiment]
The first embodiment and the second embodiment have been described on the assumption that the voice commands received by the respective communication devices are the same. In the present embodiment, the operation when the microphone of each communication device causes a difference in the voice command interpreted by the reception control unit will be described.
The voice command issued by the user may be affected by ambient noise or the positional relationship between the communication device and the user, and the voice command recognized by each communication device may differ. A solution to this problem will be described using an example in which three
また、本実施形態で説明するのは図3のS304の部分のみであり、その他の動作は先に述べたとおりであるため割愛する。説明として、通信機器100Aがマスターとなり、音声応答するデバイスは通信機器100Bの前提で説明する。下記は、ユーザーが「何時?」と3台の通信機器100A、通信機器100B、通信機器100Cに問い合わせ、各機器が音声コマンドとして認識した場合についての説明である。 Further, only the part of S304 in FIG. 3 will be described in the present embodiment, and the other operations are as described above, and therefore will be omitted. As an explanation, it is assumed that the communication device 100A serves as a master and a device that makes a voice response is the communication device 100B. The following is a description of a case where the user inquires “what time?” to the three communication devices 100A, 100B, and 100C, and each device recognizes it as a voice command.
この場合、図3のS304において、マスターである通信機器100Aの制御部106Aがペアリング相手の通信機器100B、通信機器100Cに対し、各通信機器がどのような音声コマンドを受け取ったのかを通信部104Aを用いて問い合わせる。その問い合わせた結果は、マスターである通信機器100Aの記憶部101Aに記憶される。 In this case, in S304 of FIG. 3, the control unit 106A of the communication device 100A, which is the master, determines to the communication device 100B and the communication device 100C of the pairing partner what voice command each communication device has received. Make an inquiry using 104A. The inquiry result is stored in the storage unit 101A of the master communication device 100A.
マスターである通信機器100AのS302で、各々の通信機器100A、通信機器100B、通信機器100Cが受信した音声コマンドは、
通信機器100A:「何時?」
通信機器100B:「何時?」
通信機器100C:「何日?」
をそれぞれ認識した場合を説明する。
In S302 of the master communication device 100A, the voice commands received by the respective communication devices 100A, 100B, and 100C are
Communication device 100A: "What time?"
Communication device 100B: "What time?"
Communication device 100C: "How many days?"
The case where each is recognized will be described.
次に、マスターである通信機器100Aが、記憶部101Aにある各通信機器が受け取った音声コマンドの状態を判断し、ユーザーが発した音声コマンドを推定する。ここでは、「何時?」と理解した通信機器が通信機器100A、通信機器100Bの2台あり、「何日?」と理解したのは通信機器100Cの1台である。このため、多数決の仕組みにより「何時?」という音声コマンドを、各々の通信機器100A、通信機器100B、通信機器100Cは受け取ったと推定する。そして、マスターである通信機器100Aは音声応答する通信機器100Bに対して[「何時?」という音声コマンドに応答せよ]という内容の命令を、通信部104Aを介して通信部104Bに対して発行する。 Next, the communication device 100A that is the master determines the state of the voice command received by each communication device in the storage unit 101A, and estimates the voice command issued by the user. Here, there are two communication devices that understand "what time?", the communication device 100A and the communication device 100B, and one that understands "what day?" is one communication device 100C. Therefore, it is estimated that the communication device 100A, the communication device 100B, and the communication device 100C have received the voice command "What time?" by the majority voting mechanism. Then, the communication device 100A, which is the master, issues a command [respond to the voice command "What time?"] to the communication device 100B that responds by voice to the communication unit 104B via the communication unit 104A. ..
ここでは、多数決によって可能性の高い音声コマンドを採用し決定したが、各々の通信機器100A、通信機器100B、通信機器100Cにおいて、105A、105B、105Cのマイクが検知する音圧値と合わせて判断してもよい。つまり、音圧が高い通信機器が判断した音声コマンドには配点を高くし、音声コマンド毎の点数によって音声コマンドを決定してもよい。
このようにして、ユーザーが発信した音声コマンドに最も確からしい音声コマンドを再認識し、認識精度を高める。
Here, a voice command with a high possibility is adopted by a majority decision, but it is determined together with the sound pressure value detected by the microphones 105A, 105B, 105C in each of the communication device 100A, communication device 100B, and communication device 100C. You may. That is, it is also possible to give a higher score to a voice command determined by a communication device having a high sound pressure and determine the voice command based on the score of each voice command.
In this way, the voice command most likely to be transmitted from the user is recognized again and the recognition accuracy is improved.
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, the software (computer program) that realizes the functions of the above-described embodiments is supplied to the system or the device via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.
100、110 通信機器
101、111 記憶部
102、112 タッチパネル
103、113 画面合成部
104、114 通信部
105、115 マイク
106、116 制御部
100, 110
本発明の通信装置は、ユーザーからの音声入力を受け付ける第一の音声入力手段と、音を出力する第一の出力手段と、ユーザーからの音声入力を受け付ける第二の音声入力手段と音を出力する第二の出力手段とを有する外部装置と無線通信する通信手段と、前記第一の音声入力手段で受け付けた音声に含まれる音声コマンドに応答する装置を、前記通信装置および前記外部装置のどちらか一方に決定する制御手段と、を有し、前記制御手段は、前記第一の出力手段から音を出力するか否かを制御し、前記制御手段は、前記外部装置が前記第二の出力手段から音を出力するか否かに関する情報を前記通信手段を介して受信し、前記制御手段は、前記第一の音声入力手段で受け付けた音声から音声コマンドが抽出された場合、前記通信装置および前記外部装置のうち、音の出力を禁止していない方を前記音声コマンドに応答する装置として決定し、前記制御手段は、前記第一の音声入力手段で受け付けた音声から音声コマンドが抽出された場合、前記通信装置および前記外部装置のうち、どちらの装置も音の出力を禁止していない場合では、前記通信装置および前記外部装置のうち、前記第一の音声入力手段で受け付けた音声の発生源に近い方を前記音声コマンドに応答する装置として決定し、前記制御手段は、前記通信装置が前記音声コマンドに応答する装置として決定された場合、前記第一の音声入力手段で入力された音声から抽出された音声コマンドに応答することを特徴とする。 The communication device of the present invention outputs first sound, a first sound input unit that receives a sound input from a user, a first output unit that outputs a sound, and a second sound input unit that receives a sound input from the user. A communication unit that wirelessly communicates with an external device having a second output unit, and a device that responds to a voice command included in the voice received by the first voice input unit, whichever of the communication device and the external device. And a control unit that determines whether to output a sound from the first output unit, and the control unit controls the external device to output the second output. The information about whether to output a sound from the means is received via the communication means, the control means, when a voice command is extracted from the voice received by the first voice input means, the communication device and Of the external devices, the one that does not prohibit sound output is determined as the device that responds to the voice command, and the control unit extracts the voice command from the voice received by the first voice input unit. In this case, if neither of the communication device and the external device prohibits sound output, the generation of the sound received by the first sound input means of the communication device and the external device. The one closer to the source is determined as the device that responds to the voice command, and the control unit determines that the voice input by the first voice input unit when the communication device is determined as the device that responds to the voice command. It responds to the voice command extracted from .
本発明は通信装置及び制御方法に関し、特に、ユーザーが発する音声を認識可能な通信装置に関する。 The present invention relates to communication apparatus及beauty CONTROL METHOD, more particularly, to a recognizable communication device voice user emitted.
Claims (11)
他の通信機器との間で通信を行う通信手段と、
前記通信手段によって通信可能な連携相手の機器情報を保持するとともに、前記制御手段によって動作するプログラムを記憶部に記憶する記憶手段と、
ユーザーからの音声入力を受け付ける音声入力手段と、
前記音声入力手段で受け付けた音声を解析して音声コマンドを抽出する音声解析手段とを備えた通信機器であって、
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、
前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信手段を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定することを特徴とする通信機器。 Control means for controlling the operation of the entire communication device,
Communication means for communicating with other communication devices,
Storage means for holding device information of a cooperation partner with which the communication means can communicate, and storing a program operated by the control means in a storage part;
A voice input means for receiving voice input from the user,
A communication device comprising a voice analysis unit that analyzes a voice received by the voice input unit and extracts a voice command,
When a voice command is extracted by the voice analysis unit,
The control means is
Based on the device information of the cooperation partner stored in the storage unit, the state of each communication device is exchanged with a plurality of communication devices that cooperate through the communication means, and based on the states of the plurality of communication devices. And a communication device that responds to the voice command.
前記音声コマンドを抽出した通信機器が前記音声コマンドに応答することを特徴とする請求項1に記載の通信機器。 If no other communication device is registered in the storage unit when the voice command is extracted by the voice analysis unit,
The communication device according to claim 1, wherein the communication device that has extracted the voice command responds to the voice command.
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記記憶部に記憶された優先順位の高い応答可能な通信機器が応答するように、前記音声コマンドに応答する通信機器を決定することを特徴とする請求項1または2に記載の通信機器。 The storage means stores information regarding which communication device is prioritized in a voice response in accordance with the device information of the cooperation partner stored in the storage unit,
When a voice command is extracted by the voice analysis unit,
The control unit determines a communication device that responds to the voice command so that a communication device that is responsive and has a high priority stored in the storage unit responds. Communication equipment.
前記記憶手段は、前記姿勢検知手段により検知される姿勢情報を、前記記憶部に記憶した連携相手の機器情報に合わせて記憶し、
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記記憶部に記憶された前記姿勢情報に基づいて、前記音声コマンドに応答する通信機器を決定することを特徴とする請求項1〜3の何れか1項に記載の通信機器。 Furthermore, it is equipped with attitude detection means for detecting the attitude of the communication device,
The storage unit stores the posture information detected by the posture detection unit according to the device information of the cooperation partner stored in the storage unit,
When a voice command is extracted by the voice analysis unit,
The communication device according to any one of claims 1 to 3, wherein the control unit determines a communication device that responds to the voice command based on the posture information stored in the storage unit. ..
音声コマンドに他の通信機器が応答する場合は、
前記制御手段は、前記表示部にその旨の表示を行うよう制御することを特徴とする請求項1〜4の何れか1項に記載の通信機器。 Further equipped with a display unit,
If another communication device responds to the voice command,
The communication device according to any one of claims 1 to 4, wherein the control unit controls the display unit to display a message to that effect.
前記制御手段は、新しい音声コマンドを受け付けないよう制御することを特徴とする請求項1〜5の何れか1項に記載の通信機器。 If another communication device is responding to the voice command,
The communication device according to any one of claims 1 to 5, wherein the control unit controls so as not to accept a new voice command.
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記記憶部に記憶された前記音圧情報に基づいて、前記音声コマンドに応答する通信機器を決定することを特徴とする請求項1〜7の何れか1項に記載の通信機器。 The storage means stores the sound pressure information of the sound sensed by the voice input means in accordance with the device information of the cooperation partner stored in the storage unit,
When a voice command is extracted by the voice analysis unit,
The communication device according to claim 1, wherein the control unit determines a communication device that responds to the voice command based on the sound pressure information stored in the storage unit. machine.
前記制御手段は、前記抽出された音声コマンドと、前記記憶部に記憶された連携相手の機器が認識した音声コマンドとを比較し、それぞれの連携相手の機器が異なる音声コマンドを認識していた場合に、
可能性の高い音声コマンドを採用することを特徴とする請求項1〜8の何れか1項に記載の通信機器。 When a voice command is extracted by the voice analysis unit,
When the control unit compares the extracted voice command with the voice command recognized by the cooperation partner device stored in the storage unit, and the respective cooperation partner devices recognize different voice commands. To
The communication device according to claim 1, wherein a voice command having a high possibility is adopted.
他の通信機器との間で通信を行う通信工程と、
前記通信工程において通信可能な連携相手の機器情報を保持するとともに、前記制御工程において動作するプログラムを記憶部に記憶する記憶工程と、
ユーザーからの音声入力を受け付ける音声入力工程と、
前記音声入力工程で受け付けた音声を解析して音声コマンドを抽出する音声解析工程とを備えた通信機器の制御方法であって、
前記音声解析工程において音声コマンドが抽出された場合、
前記制御工程は、
前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信工程を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定することを特徴とする通信機器の制御方法。 A control process for controlling the operation of the entire communication device,
A communication process for communicating with other communication devices,
A storage step of holding device information of a cooperation partner capable of communicating in the communication step and storing a program operating in the control step in a storage section,
A voice input process that receives voice input from the user,
A method of controlling a communication device, comprising: a voice analysis step of analyzing a voice received in the voice input step to extract a voice command,
When a voice command is extracted in the voice analysis step,
The control step is
Based on the device information of the cooperation partner stored in the storage unit, the state of each communication device is exchanged for a plurality of communication devices that cooperate through the communication process, and based on the state of the plurality of communication devices. A method of controlling a communication device, comprising determining a communication device that responds to the voice command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020031888A JP6905115B2 (en) | 2015-12-08 | 2020-02-27 | Communication equipment, control methods, and programs |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015239534A JP2017107333A (en) | 2015-12-08 | 2015-12-08 | Communication apparatus and communication apparatus control method |
JP2020031888A JP6905115B2 (en) | 2015-12-08 | 2020-02-27 | Communication equipment, control methods, and programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015239534A Division JP2017107333A (en) | 2015-12-08 | 2015-12-08 | Communication apparatus and communication apparatus control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020095737A true JP2020095737A (en) | 2020-06-18 |
JP6905115B2 JP6905115B2 (en) | 2021-07-21 |
Family
ID=71086224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020031888A Active JP6905115B2 (en) | 2015-12-08 | 2020-02-27 | Communication equipment, control methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6905115B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002116787A (en) * | 2000-07-10 | 2002-04-19 | Matsushita Electric Ind Co Ltd | Priority deciding device, priority deciding method and priority deciding program |
JP2003223188A (en) * | 2002-01-29 | 2003-08-08 | Toshiba Corp | Voice input system, voice input method, and voice input program |
JP2004234529A (en) * | 2003-01-31 | 2004-08-19 | Cross Culture Ltd | Kiosk terminal |
JP2009005039A (en) * | 2007-06-21 | 2009-01-08 | Casio Hitachi Mobile Communications Co Ltd | Electronic apparatus and program |
WO2010070781A1 (en) * | 2008-12-16 | 2010-06-24 | 三菱電機株式会社 | Navigation device |
JP2014103545A (en) * | 2012-11-20 | 2014-06-05 | Sharp Corp | Detection device and detection program |
-
2020
- 2020-02-27 JP JP2020031888A patent/JP6905115B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002116787A (en) * | 2000-07-10 | 2002-04-19 | Matsushita Electric Ind Co Ltd | Priority deciding device, priority deciding method and priority deciding program |
JP2003223188A (en) * | 2002-01-29 | 2003-08-08 | Toshiba Corp | Voice input system, voice input method, and voice input program |
JP2004234529A (en) * | 2003-01-31 | 2004-08-19 | Cross Culture Ltd | Kiosk terminal |
JP2009005039A (en) * | 2007-06-21 | 2009-01-08 | Casio Hitachi Mobile Communications Co Ltd | Electronic apparatus and program |
WO2010070781A1 (en) * | 2008-12-16 | 2010-06-24 | 三菱電機株式会社 | Navigation device |
JP2014103545A (en) * | 2012-11-20 | 2014-06-05 | Sharp Corp | Detection device and detection program |
Also Published As
Publication number | Publication date |
---|---|
JP6905115B2 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110651241A (en) | Connecting multiple mobile devices to a smart home assistant account | |
KR20190051368A (en) | Electronic apparatus and Method of executing a function by speech recognition between the electronic apparatus | |
EP3246790B1 (en) | Information processing of combined voice and gesture input operations | |
KR102141116B1 (en) | Interface device and method supporting speech dialogue survice | |
KR20210016815A (en) | Electronic device for managing a plurality of intelligent agents and method of operating thereof | |
JP2018054866A (en) | Voice interactive apparatus and voice interactive method | |
US20190189120A1 (en) | Method for providing artificial intelligence service during phone call and electronic device thereof | |
KR20200043642A (en) | Electronic device for ferforming speech recognition using microphone selected based on an operation state and operating method thereof | |
JP2017107333A (en) | Communication apparatus and communication apparatus control method | |
CN111093133B (en) | Wireless device control method, apparatus and computer readable storage medium | |
KR102629796B1 (en) | An electronic device supporting improved speech recognition | |
KR101579292B1 (en) | Apparatus and method for universal control using speech recognition | |
US20190026265A1 (en) | Information processing apparatus and information processing method | |
EP3547310A1 (en) | Electronic device for processing user voice | |
JP7133969B2 (en) | Voice input device and remote dialogue system | |
JP6985113B2 (en) | How to provide an interpreter function for electronic devices | |
CN112308569A (en) | Application function calling method, device, terminal and storage medium | |
JP6905115B2 (en) | Communication equipment, control methods, and programs | |
CN112119372A (en) | Electronic device and control method thereof | |
KR102393112B1 (en) | Method and apparatus for function of translation using earset | |
JP6688457B2 (en) | Call processing system, call processing device, call processing method, and call processing program | |
US11972763B2 (en) | Method and apparatus for supporting voice agent in which plurality of users participate | |
KR20190092768A (en) | Apparatus and method for transmitting private information to automatic response system | |
KR102543656B1 (en) | Screen controlling method and electronic device supporting the same | |
JP7141226B2 (en) | Voice input device and remote dialogue system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210624 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6905115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |