JP2020095737A - Communication apparatus, control method, and program - Google Patents

Communication apparatus, control method, and program Download PDF

Info

Publication number
JP2020095737A
JP2020095737A JP2020031888A JP2020031888A JP2020095737A JP 2020095737 A JP2020095737 A JP 2020095737A JP 2020031888 A JP2020031888 A JP 2020031888A JP 2020031888 A JP2020031888 A JP 2020031888A JP 2020095737 A JP2020095737 A JP 2020095737A
Authority
JP
Japan
Prior art keywords
communication device
voice
communication
voice command
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020031888A
Other languages
Japanese (ja)
Other versions
JP6905115B2 (en
Inventor
秀信 秋吉
Hidenobu Akiyoshi
秀信 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015239534A external-priority patent/JP2017107333A/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020031888A priority Critical patent/JP6905115B2/en
Publication of JP2020095737A publication Critical patent/JP2020095737A/en
Application granted granted Critical
Publication of JP6905115B2 publication Critical patent/JP6905115B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】どのデバイスに対して動作させたいかということをユーザーが考える煩わしさを解消できるようにする。【解決手段】通信機器全体の動作を制御する制御手段と、他の通信機器との間で通信を行う通信手段と、前記通信手段によって通信可能な連携相手の機器情報を保持するとともに、前記制御手段によって動作するプログラムを記憶部に記憶する記憶手段と、ユーザーからの音声入力を受け付ける音声入力手段と、前記音声入力手段で受け付けた音声を解析して音声コマンドを抽出する音声解析手段とを備えた通信機器であって、前記音声解析手段により音声コマンドが抽出された場合、前記制御手段は、前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信手段を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定する。【選択図】 図3PROBLEM TO BE SOLVED: To eliminate the troublesomeness of a user thinking about which device he / she wants to operate. SOLUTION: A control means for controlling the operation of the entire communication device, a communication means for communicating with another communication device, and device information of a collaborating partner capable of communicating by the communication means are held and the control is performed. It is provided with a storage means for storing a program operated by the means in a storage unit, a voice input means for receiving voice input from a user, and a voice analysis means for analyzing the voice received by the voice input means and extracting a voice command. When a voice command is extracted by the voice analysis means, the control means may cooperate with each other through the communication means based on the device information of the cooperation partner stored in the storage unit. The state of each communication device is exchanged with the communication device of the above, and the communication device that responds to the voice command is determined based on the states of the plurality of communication devices. [Selection diagram] Fig. 3

Description

本発明は通信機器及び通信機器の制御方法に関し、特に、ユーザーが発する音声を認識可能な通信機器に関する。 The present invention relates to a communication device and a communication device control method, and more particularly to a communication device capable of recognizing a voice uttered by a user.

近年、スマートフォンやウエアラブルデバイスが市場に普及してきている。これらのデバイスにおいて、ユーザーがデバイスを操作するための入力方法の一つに音声入力がある。例えば、デバイス上でメールアプリケーションを立ち上げておき、タッチパネル上に表示されたキーボードを操作せず、ユーザーの音声による文字入力を行う場合等である。また、音声による文字入力にとどまらず、全くデバイスを触らずに音声による掛け声で音声コマンドを受信するモードへとデバイスが移行し、その後に受けた音声コマンドを実施するデバイスがある。 In recent years, smartphones and wearable devices have become popular in the market. In these devices, voice input is one of the input methods for the user to operate the device. For example, there is a case where a mail application is launched on the device and characters are input by the user's voice without operating the keyboard displayed on the touch panel. Further, there is a device in which the device shifts to a mode in which the voice command is received not only by the voice character input but also by the voice shout without touching the device at all, and then executes the received voice command.

また、これらのデバイスを複数台所有し持ち歩くユーザーも増えている。このような場合、ユーザーが音声操作を開始しようとすると、複数のデバイスが応答する場合があり、1台のデバイスに対してのみ操作を行おうとすると、デバイスに口を近づけて小声で発話するなどの対策が必要であり、操作が容易にできない。 In addition, an increasing number of users carry around these devices in their kitchens. In such a case, when the user tries to start a voice operation, a plurality of devices may respond, and when an operation is performed on only one device, the mouth is approached to the device and a small voice is uttered. It is necessary to take measures against and the operation is not easy.

この問題を解決するべく特許文献1においては、相手となるデバイスを特定するため、相手デバイスの固有名称を音声コマンドに含めてユーザーが発話することで特定のデバイスに特定の動作をさせることを可能としている。 In order to solve this problem, in Patent Document 1, in order to specify a device to be a partner, it is possible to cause the specific device to perform a specific operation by including the unique name of the partner device in a voice command and uttering by the user. I am trying.

特開2001−5485号公報JP, 2001-5485, A

しかしながら、特許文献1においては、コマンドに応答するデバイスを特定するために、デバイスの固有識別情報を音声コマンドとして発音しなければならず、状況に応じてユーザーが適切なデバイスの固有識別情報を発音しなければならない煩わしさがあった。
本発明は前述の問題点に鑑み、どのデバイスに対して動作させたいかということをユーザーが考える煩わしさを解消できるようにすることを目的とする。
However, in Patent Document 1, in order to identify the device that responds to the command, the unique identification information of the device must be pronounced as a voice command, and the user can pronounce the proper unique identification information of the device depending on the situation. There was an annoyance to do.
The present invention has been made in view of the above-mentioned problems, and an object thereof is to eliminate the troublesomeness for the user to consider which device he/she wants to operate.

本発明の通信機器は、通信機器全体の動作を制御する制御手段と、他の通信機器との間で通信を行う通信手段と、前記通信手段によって通信可能な連携相手の機器情報を保持するとともに、前記制御手段によって動作するプログラムを記憶部に記憶する記憶手段と、ユーザーからの音声入力を受け付ける音声入力手段と、前記音声入力手段で受け付けた音声を解析して音声コマンドを抽出する音声解析手段とを備えた通信機器であって、前記音声解析手段により音声コマンドが抽出された場合、前記制御手段は、前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信手段を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定することを特徴とする。 The communication device of the present invention holds control means for controlling the operation of the entire communication device, communication means for communicating with other communication devices, and device information of a partner with which the communication means can communicate. A storage unit for storing a program operated by the control unit in a storage unit; a voice input unit for receiving a voice input from a user; and a voice analysis unit for analyzing a voice received by the voice input unit and extracting a voice command. When the voice command is extracted by the voice analysis means, the control means, based on the device information of the cooperation partner stored in the storage unit, through the communication means, It is characterized in that the state of each communication device is exchanged with a plurality of cooperating communication devices, and the communication device that responds to the voice command is determined based on the states of the plurality of communication devices.

本発明によれば、複数のデバイスを意識することなくユーザーの意図に沿ったデバイスが応答することを実現し、ユーザーの煩わしさを低減することができる。 According to the present invention, it is possible to realize a device that responds to a user's intention without being conscious of a plurality of devices, and reduce the user's annoyance.

実施形態における通信機器の構成例を示すブロック図である。It is a block diagram which shows the structural example of the communication apparatus in embodiment. 実施形態における通信機器同士のペアリングを説明するフローチャートである。3 is a flowchart illustrating pairing between communication devices according to the embodiment. 実施形態における通信機器の動作を説明するフローチャートである。6 is a flowchart illustrating an operation of the communication device according to the embodiment. 第2の実施形態における通信機器の構成例を示すブロック図である。It is a block diagram which shows the structural example of the communication apparatus in 2nd Embodiment.

以下、図面を用いて本発明の好ましい実施の形態を説明する。
なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[第1の実施形態]
図1は、本実施形態における通信機器の構成例を示すブロック図である。
図1において、通信機器100と通信機器110とは同一構成であり、2つの通信機器間にて通信を行う。実際には、より複数の通信機器があってもよいが、ここでは最小構成の2台の通信機器を例に挙げて説明する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
[First Embodiment]
FIG. 1 is a block diagram showing a configuration example of a communication device according to this embodiment.
In FIG. 1, the communication device 100 and the communication device 110 have the same configuration and perform communication between two communication devices. In reality, a plurality of communication devices may be provided, but here, two communication devices having the minimum configuration will be described as an example.

通信機器100について説明する。
制御部106は、通信機器全体の制御を行う。制御部106は、記憶部101に保持されたアプリケーションプログラムを読み出し、実行する。また、制御部106は、後述するマイク105で集音された音を解析して音声コマンドを抽出する音声解析機能を有する。
The communication device 100 will be described.
The control unit 106 controls the entire communication device. The control unit 106 reads out and executes the application program stored in the storage unit 101. The control unit 106 also has a voice analysis function of analyzing a sound collected by the microphone 105, which will be described later, and extracting a voice command.

記憶部101は、この通信機器100で動かすプログラムや、通信可能な連携相手の通信機器(ここでは通信機器110)との連携状況が格納されるメモリである。
タッチパネル102は、ユーザーに対する表示を行う表示部として機能するとともに、ユーザーの指による操作を受け付けるインターフェイスとして機能する。
画面合成部103は、記憶部101に格納されるアプリケーションの実行画面や、画像等のデータを他のインターフェイス部材とともに合成し、タッチパネル102に表示できる形にする。
The storage unit 101 is a memory that stores a program to be run by the communication device 100 and a cooperation status with a communication partner communication device (here, the communication device 110) with which communication is possible.
The touch panel 102 functions as a display unit that displays information to the user, and also functions as an interface that receives an operation performed by the user's finger.
The screen synthesis unit 103 synthesizes an application execution screen stored in the storage unit 101 and data such as an image together with other interface members so as to be displayed on the touch panel 102.

通信部104は、電波を用いる通信を行うブロックであり外部装置やサーバー、連携する通信機器と通信するためのインターフェイスである。通信部104は主にWIFI、Bluetooth(登録商標)、Bluetooth LE等の通信方式で通信を行う。マイク105は、音声入力部であり外界の音を集音するデバイスである。マイク105は、感知した音声の音圧を数値化し、数値化した音圧を記憶部101に常に保持しておく。記憶部101に保持している音圧情報によって通信機器に届く音の大きさを判断できる。
通信機器110の構成は、通信機器100と同様であるため、通信機器110の構成については説明を割愛する。
The communication unit 104 is a block that performs communication using radio waves, and is an interface for communicating with an external device, a server, and a communication device that cooperates. The communication unit 104 mainly performs communication using a communication method such as WIFI, Bluetooth (registered trademark), or Bluetooth LE. The microphone 105 is a voice input unit and a device that collects external sounds. The microphone 105 digitizes the sound pressure of the sensed voice, and always holds the digitized sound pressure in the storage unit 101. The sound pressure information stored in the storage unit 101 can be used to determine the volume of sound reaching the communication device.
Since the configuration of the communication device 110 is the same as that of the communication device 100, the description of the configuration of the communication device 110 is omitted.

ユーザーからの音声コマンドを2台の通信機器100、110が協調して処理するため、2台の通信機器のペアリングを行う。ペアリング操作とは、通信機器同士を常時連携させるための初めの操作のことである。
通信機器100と通信機器110のペアリングを図2のフローチャートを用いて説明する。
Since the two communication devices 100 and 110 cooperate to process the voice command from the user, the two communication devices are paired. The pairing operation is the first operation for always linking communication devices.
Pairing between the communication device 100 and the communication device 110 will be described with reference to the flowchart of FIG.

S200は、通信機器100側の動作を説明するフローチャートであり、通信機器100側からペアリングを要求する場合を示している。S210は通信機器110側の動作を説明するフローチャートである。
S201において、ペアリングを開始する。制御部106は、記憶部101からペアリング用のアプリケーションを呼び出して処理し、ペアリングの進行状況の画面をタッチパネル102に表示する。その後、S202に進む。
S200 is a flowchart for explaining the operation on the communication device 100 side, and shows a case where the communication device 100 side requests pairing. S210 is a flowchart for explaining the operation on the communication device 110 side.
In S201, pairing is started. The control unit 106 calls an application for pairing from the storage unit 101, processes the application, and displays a screen of the progress of pairing on the touch panel 102. Then, it progresses to S202.

初めは、他の通信機器とペアリングしていない旨の情報が通信機器100の記憶部101に保持されている。このため、S202で制御部106は、通信部104を用いてペアリング相手に自機を発見してもらうためにブロードキャスト信号(いわゆるアドバタイズ)を発信する。ブロードキャスト信号は、受信相手を特定しない通信方式である。この通信については、無線LANやBluetooth等の通信で通常用いられる方式であるため詳細は割愛する。その後、S203に進む。
S203では、制御部106は、相手側の通信機器から、アドバタイズに対する応答があったかどうかを一定時間待つ。応答がなければ処理を終了する。応答があればS204に進む。
Initially, information indicating that the communication device 100 is not paired with another communication device is stored in the storage unit 101 of the communication device 100. Therefore, in S202, the control unit 106 transmits a broadcast signal (so-called advertisement) in order to have the pairing partner discover the own device using the communication unit 104. The broadcast signal is a communication method that does not specify the receiving party. This communication is a method that is normally used in communication such as wireless LAN and Bluetooth, and thus its details are omitted. Then, it progresses to S203.
In S203, the control unit 106 waits for a certain period of time whether or not there is a response to the advertisement from the communication device on the partner side. If there is no response, the process ends. If there is a response, the process proceeds to S204.

S204では、相手側通信機器から応答があったことに応じて、制御部106はペアリングのアプリケーションはタッチパネル102にパスワードを入力するようユーザーに求める。ここで求めるパスワードは、相手側通信機器の表示画面に表示された4桁の数字であり、ユーザーが目視で確認した相手側のパスワードを通信機器100のタッチパネル102を用いて入力する。その後、S205に進む。
S205では、制御部106は、入力されたパスワードが、相手側通信機器に設定されているパスワードと一致したか否かを確認し、一致しない場合は処理を終了する。一致した場合はS206に進む。
In step S204, the control unit 106 requests the user to input the password on the touch panel 102 by the pairing application in response to the response from the communication device on the other side. The password obtained here is a four-digit number displayed on the display screen of the communication device of the other party, and the password of the partner party visually confirmed by the user is input using the touch panel 102 of the communication device 100. Then, it progresses to S205.
In S205, the control unit 106 confirms whether or not the input password matches the password set in the partner communication device, and if they do not match, the process ends. If they match, the process proceeds to S206.

S206では、制御部106は、記憶部101に相手側の機器情報を保持する。ここで、相手側の機器情報とは相手と通信を常時行うためのIPアドレスや、MACアドレスである。これにより、ペアリングが成立する。その後、S207に進む。
S207では、制御部106は、ペアリング相手にペアリングの成功通知を通信部104により送信し、処理を終了する。
In S206, the control unit 106 holds the device information of the other party in the storage unit 101. Here, the device information of the partner is an IP address or a MAC address for always communicating with the partner. As a result, pairing is established. Then, it progresses to S207.
In step S207, the control unit 106 transmits a pairing success notification to the pairing partner via the communication unit 104, and ends the process.

次に、上記の通信機器100の動作に対応する通信機器110の動作について述べる。S211はIdle状態であり、定期的にS212に進む。
S212では、通信機器110側の通信部114がペアリングのためのブロードキャスト信号(アドバタイズ)を受信したか否かをチェックしており、信号を受信した場合は213に進み、そうでない場合は211に戻る。
Next, the operation of the communication device 110 corresponding to the above operation of the communication device 100 will be described. S211 is in the idle state, and the process periodically proceeds to S212.
In S212, the communication unit 114 on the communication device 110 side checks whether or not a broadcast signal (advertisement) for pairing is received. If a signal is received, the process proceeds to 213, and if not, the process proceeds to 211. Return.

S213では、ペアリングのためのブロードキャスト信号を通信部114が受信したことに応じて、制御部116は、タッチパネル112に4ケタのパスワードとなる数字を表示する。その後、S214に進む。
S214では、制御部116は、相手側の通信機器からペアリング成功の通知を通信部114が受けたか否かを判断し、ペアリング成功通知が相手側通信機器から受信できればS215に進み、そうでなければ処理を終了する。
In step S<b>213, in response to the communication unit 114 receiving the broadcast signal for pairing, the control unit 116 displays a 4-digit password number on the touch panel 112. Then, it progresses to S214.
In S214, the control unit 116 determines whether or not the communication unit 114 has received a notification of successful pairing from the communication device on the other side, and if the notification of successful pairing can be received from the communication device on the other side, the process proceeds to S215. If not, the process ends.

S215では、制御部116は、相手側の通信機器100の情報を通信機器110の記憶部111に保持する。ここで、相手側の情報とは相手と通信を常時行うためのIPアドレスや、MACアドレスである。これにより、ペアリングが成立する。また、制御部116は、タッチパネル112にペアリングが成功したことを表示してユーザーに通知する。
以後、二つの通信機器はお互いにペアリングされたことを双方の記憶部(101、111)に保持しているため相互連携が可能となる。
In S215, the control unit 116 holds the information of the communication device 100 on the partner side in the storage unit 111 of the communication device 110. Here, the information of the other party is an IP address or a MAC address for always communicating with the other party. As a result, pairing is established. Further, the control unit 116 displays on the touch panel 112 that the pairing is successful and notifies the user.
After that, the two communication devices hold the fact that they have been paired with each other in both storage units (101, 111), so that they can cooperate with each other.

次に、ユーザーが発した音声コマンドに対して通信機器100と通信機器110が協調して応答する場合について、一つの通信機器(通信機器100)の動作を、図3のフローチャートを用いて説明する。ここでは、通信機器100の動作を説明するが、同様の処理を通信機器110も実行する。なお、図3のフローチャートは、上記のペアリングの処理が完了している状態で開始される。
S300で通信機器100は処理を開始すると、S301に進む。
S301では、通信機器100のマイク105が常時外界の音を受け付けており、制御部106がその音を分析して音声コマンドとして抽出し認識できたか否かを繰り返し処理する。音声コマンドとして認識できた場合は、その音圧値とともに記憶部101に保持する。音声コマンドとして認識できた場合はS302に進み、そうでなければ301を繰り返す。
Next, the operation of one communication device (communication device 100) in the case where the communication device 100 and the communication device 110 cooperatively respond to a voice command issued by the user will be described with reference to the flowchart of FIG. .. Here, the operation of the communication device 100 will be described, but the communication device 110 also executes similar processing. The flowchart of FIG. 3 is started in a state where the above pairing process is completed.
When the communication device 100 starts the process in S300, the process proceeds to S301.
In S301, the microphone 105 of the communication device 100 always receives the external sound, and the control unit 106 analyzes the sound, extracts it as a voice command, and repeatedly processes whether or not it has been recognized. When it is recognized as a voice command, it is stored in the storage unit 101 together with the sound pressure value. If it is recognized as a voice command, the process proceeds to S302, and if not, 301 is repeated.

S302では、制御部106は、記憶部101に記憶しているペアリング相手(通信機器110)に対して、音声コマンドを受け付けたか否かを問い合わせる。通信部104を通してペアリング相手(通信機器110)と通信を行う。その後、S303に進む。
S303では、制御部106は、通信機器100がマスターになるべきか否かを判断する処理を行う。ここでは、ペアリング相手(通信機器110)からの応答を受け取る。この応答には、ペアリング相手(通信機器110)の記憶部111に保持されていた製造番号の情報を含む。その応答結果と通信機器100の記憶部101に記憶された製造番号の比較をふまえて、通信機器100がマスターになるべきかどうかを制御部106が判断する。
In S302, the control unit 106 inquires of the pairing partner (communication device 110) stored in the storage unit 101 whether or not a voice command is accepted. It communicates with the pairing partner (communication device 110) through the communication unit 104. Then, it progresses to S303.
In S303, the control unit 106 performs a process of determining whether or not the communication device 100 should become the master. Here, the response from the pairing partner (communication device 110) is received. This response includes the information on the manufacturing number held in the storage unit 111 of the pairing partner (communication device 110). Based on the comparison between the response result and the manufacturing number stored in the storage unit 101 of the communication device 100, the control unit 106 determines whether or not the communication device 100 should become the master.

マスターとは、複数の通信機器が協調して動作するための指揮官として働くデバイスのことである。ここでは、マスターを決定する方法として、ペアリング相手(通信機器110)の製造番号を比較する。製造番号は、各通信機器でユニークであり、同一のものは存在しない。本実施形態では、この製造番号をそれぞれの通信機器が認識し、一番若い番号の通信機器がマスターになる。通信機器100がマスターになる場合はS304に進み、そうでなければS309に進む。 A master is a device that acts as a commander for cooperating multiple communication devices. Here, as a method of determining the master, the serial numbers of the pairing partners (communication device 110) are compared. The manufacturing number is unique to each communication device, and the same one does not exist. In this embodiment, each communication device recognizes this manufacturing number, and the communication device with the smallest number becomes the master. If the communication device 100 becomes the master, the process proceeds to S304, and if not, the process proceeds to S309.

S304では、制御部106は、音声コマンドに応答する通信機器を決定する。マスター(通信機器100)が、通信機器110の記憶部111に音声コマンドとともに記憶している音圧値を通信によって受取り、通信機器100の記憶部101に記憶している音圧値とを比較する。マスターは、ユーザーの発する声が一番大きく受けられた(音圧の大きな)通信機器を音声コマンドに応答する通信機器として決定する。なぜなら、ユーザーの声が大きく入力される機器は、すなわちユーザーが口を近づけて音声コマンドを発声したことになり、ユーザーがその機器に対して音声コマンドを入力したいと考えていると予想されるからである。このように、通信機器の状態を交換し、優先順位の高い応答可能な通信機器が応答するように決定する。その後、S305に進む。 In S304, control unit 106 determines a communication device that responds to the voice command. The master (communication device 100) receives by communication the sound pressure value stored in the storage unit 111 of the communication device 110 together with the voice command, and compares it with the sound pressure value stored in the storage unit 101 of the communication device 100. .. The master determines that the communication device that receives the largest voice (sound pressure) of the user is the communication device that responds to the voice command. This is because it is expected that the device to which the user's voice is loudly input, that is, the user has approached his mouth and uttered a voice command, and the user wants to input a voice command to the device. Is. In this way, the states of the communication devices are exchanged, and it is determined that the communication device having a high priority and capable of responding will respond. Then, it progresses to S305.

S305では、制御部106は、通信機器100が音声コマンドに応答する通信機器になるか否かを判断し、通信機器100が音声コマンドに応答する通信機器になると判断した場合はS306に進み、そうでなければS310に進む。
S306では、制御部106は、音声コマンドに応じた各種処理を行う。制御部106は、音声コマンドに応じて、必要なプログラムを記憶部101から取り出し処理する。例えば、ユーザーが「今の時間は?」という音声コマンドを発した場合、制御部106は時間を管理するアプリケーションを記憶部101から読み出す。そして、このアプリケーションを制御部106が処理することで、応答を要求された通信機器が「12:00です」と応答する。次に、S312に進む。
In step S305, the control unit 106 determines whether the communication device 100 is a communication device that responds to a voice command. If it is determined that the communication device 100 is a communication device that responds to a voice command, the process proceeds to step S306. If not, the process proceeds to S310.
In S306, the control unit 106 performs various processes according to the voice command. The control unit 106 retrieves a necessary program from the storage unit 101 and processes it according to the voice command. For example, when the user issues a voice command “What is the current time?”, the control unit 106 reads an application for managing the time from the storage unit 101. Then, the control unit 106 processes this application, so that the communication device requested to respond responds with “12:00”. Then, the process proceeds to S312.

S312では、制御部106は、通信機器100がマスターであるか否かを判断し、マスターであればS308に進み、マスターでなければS307に進む。
S307では、応答終了時に、制御部106は、マスターである通信機器110に音声コマンドに対する応答が終了したことを通信部104にて通知した後、S308に進む。
S308では、再度音声コマンド受付モードとなり、この動作フローを繰り返す。
In S312, the control unit 106 determines whether or not the communication device 100 is a master. If the communication device 100 is a master, the process proceeds to S308, and if not, the process proceeds to S307.
In step S307, when the response ends, the control unit 106 notifies the communication device 110, which is the master, that the response to the voice command has ended in the communication unit 104, and then the process proceeds to step S308.
In S308, the voice command accepting mode is entered again, and this operation flow is repeated.

S309では、通信機器100はマスターにならないことが確定したため、制御部106は、マスターの通信機器からの指示が来るまで待つ。マスターの通信機器から指示が来た場合はS305に進み、そうでなければこの処理を繰り返す。 In S309, since it is determined that the communication device 100 will not become the master, the control unit 106 waits until an instruction is received from the master communication device. If an instruction is received from the master communication device, the process proceeds to S305, and if not, this process is repeated.

S310では、通信機器100が応答する通信機器にならないことが確定したため、制御部106は、タッチパネル102に対して「他の通信機器で応答中」のように、通信機器100が音声コマンドを処理していないことを表示する。さらにこのとき、新しい音声コマンドを受け付けないように制御部106は制御する。次に、S311に進む。
S311では、応答する通信機器110から音声コマンドの処理が終了したことの通知を待つ。他の応答する通信機器から処理終了の合図があればS308に進み、そうでなければこの処理を繰り返す。
In S310, since it is determined that the communication device 100 does not become the communication device that responds, the control unit 106 causes the communication device 100 to process the voice command, such as “responsive to another communication device” on the touch panel 102. Show that not. Further, at this time, the control unit 106 controls so as not to accept a new voice command. Then, the process proceeds to S311.
In step S311, the communication device 110 that responds waits for a notification that the processing of the voice command is completed. If there is a signal from the other responding communication device to end the process, the process proceeds to S308, and if not, this process is repeated.

このような動作で、まずは複数の通信機器を協調させるためのマスターを決定し、そのマスターが応答する通信機器を決定し、その通信機器に音声応答の処理を実施させる。このようにすることで、複数の通信機器が各々音声コマンドを処理することなく協調動作で最適な通信機器だけが応答する。
本実施形態では、通信機器100と通信機器110の2台の構成について説明したが、2台以上の構成であってもよい。
With such an operation, first, a master for coordinating a plurality of communication devices is determined, a communication device to which the master responds is determined, and the communication device is caused to perform a voice response process. By doing so, only the optimum communication device responds in a cooperative operation without the plurality of communication devices processing voice commands.
In the present embodiment, the configuration of two communication devices 100 and 110 has been described, but the configuration may be two or more.

また、マスターを決定する処理について、製造番号を比較する方法を説明したがそれ以外の方法でマスターを決定してもよい。例えば、通信に無線LANを利用する場合には、他の通信機器と通信するためのIPアドレスを数列として考え、若い番号の機器をマスターとしてもよい。また、通信にBluetooth LEを利用する場合には、BDAddrを数列として考え、若い番号の機器をマスターとしてもよい。記憶部101にあらかじめマスターとなる機器の優先順位がユーザーによって登録されていてもよい。なお、ここでいうマスターとは、無線LANの規格に定められるアクセスポイントとステーションの関係や、Bluetoothの規格に定められるマスターとスレーブの関係とは独立した概念である。本実施形態におけるマスターは、通信における処理(例えば応答すべき機器を判断する処理等)の主体を示すものである。 Further, as for the process of determining the master, the method of comparing the serial numbers has been described, but the master may be determined by another method. For example, when a wireless LAN is used for communication, an IP address for communicating with another communication device may be considered as a sequence, and a device with a smaller number may be the master. When Bluetooth LE is used for communication, BDAddr may be considered as a sequence and a device with a smaller number may be the master. The priority order of the master device may be registered in the storage unit 101 in advance by the user. It should be noted that the term "master" as used herein is a concept independent of the relationship between an access point and a station defined by the wireless LAN standard and the relationship between a master and a slave defined by the Bluetooth standard. The master in the present embodiment indicates a main body of processing in communication (for example, processing for determining a device to respond to).

[第2の実施形態]
本実施形態を説明するために、図4の通信機器400の構成を説明する。
通信機器400は、基本的には図1で示した通信機器100と同じであり、101〜106の各ブロックは401〜406のそれぞれと対応するため説明を割愛する。通信機器100の構成以外のブロックについて説明する。
[Second Embodiment]
In order to explain the present embodiment, the configuration of the communication device 400 of FIG. 4 will be described.
The communication device 400 is basically the same as the communication device 100 shown in FIG. 1, and each block of 101 to 106 corresponds to each of 401 to 406, so the description thereof will be omitted. Blocks other than the configuration of the communication device 100 will be described.

スピーカー407は、記憶部401に記憶された音声データを外部に出力するためのものである。例えば、音声データは、通信部404によって他の通信機器から受信した音声データである。また、制御部406はスピーカー407から音を出す、出さない、音量を上げる、下げる等の制御が可能である。 The speaker 407 is for outputting the audio data stored in the storage unit 401 to the outside. For example, the audio data is audio data received by the communication unit 404 from another communication device. In addition, the control unit 406 can perform control such that sound is output from the speaker 407, sound is not output, volume is increased or decreased, and the like.

位置・加速度検知部408は、この通信機器400の地球上の位置情報をGPS(Global Positioning System)で取得し、この通信機器400に懸る加速度を検出する。位置・加速度検知部408は、さらに、ジャイロセンサーも有しており、通信機器400の姿勢を検知して姿勢情報を取得する姿勢検知機能も有している。位置・加速度検知部408によりこの通信機器400が移動しているか否か等の情報が得られる。これらの情報は、逐次記憶部401に記憶されている。 The position/acceleration detection unit 408 acquires the position information of the communication device 400 on the earth by GPS (Global Positioning System), and detects the acceleration applied to the communication device 400. The position/acceleration detection unit 408 further includes a gyro sensor, and also has a posture detection function of detecting the posture of the communication device 400 and acquiring posture information. The position/acceleration detection unit 408 can obtain information such as whether or not the communication device 400 is moving. These pieces of information are stored in the sequential storage unit 401.

外部接続409は、この通信機器400が外部のPC(Personal Computer)に接続するためのI/Fであり、例えばUSB、WIFIがある。外部と接続しているか否かの情報は逐次記憶部401に記憶されている。
カメラ410は、通信機器400の外界を撮影するためのカメラであり、カメラで撮影した映像は記憶部401に一時的に記憶され、制御部406が解析して人物認証等が可能である。カメラが動作しているか否かの情報は、逐次記憶部401に記憶されている。
また、通信機器420の構成要素は先に説明した通信機器400と同じであり、説明を割愛する。
The external connection 409 is an I/F for connecting the communication device 400 to an external PC (Personal Computer), and is, for example, USB or WIFI. Information regarding whether or not the device is connected to the outside is sequentially stored in the storage unit 401.
The camera 410 is a camera for photographing the outside world of the communication device 400, and the image photographed by the camera is temporarily stored in the storage unit 401 and can be analyzed by the control unit 406 to perform person authentication or the like. Information on whether or not the camera is operating is sequentially stored in the storage unit 401.
Further, the components of the communication device 420 are the same as those of the communication device 400 described above, and the description thereof will be omitted.

第1の実施形態では、音声コマンドに応答するデバイスを決定する際に、複数の通信機器に供えられたマイクが受ける音圧が一番強い通信機器を選択する構成を説明した。
本実施形態では、応答する通信機器を決定する方法についてのみ第1の実施形態と異なり、他の動作は同様である。よって、図3のS304の処理のみ異なり他の動作は同様であるため説明を割愛する。
In the first embodiment, the configuration has been described in which, when determining a device that responds to a voice command, the communication device having the strongest sound pressure received by the microphones provided for the plurality of communication devices is selected.
The present embodiment differs from the first embodiment only in the method of determining the communication device that responds, and other operations are the same. Therefore, only the process of S304 in FIG. 3 is different and the other operations are the same, and thus the description thereof is omitted.

ここでは、図4で示す通信機器400について説明し、ペアリング相手の通信機器420と協調動作する場合[(1)〜(3)]を説明する。通信機器400と通信機器420では通信機器400がマスターとなる前提で説明する。
(1)通信機器400の動作で、図3のS304において、マスターである通信機器400の制御部406は、タッチパネル402の使用状況を記憶部401に記憶するよう指示する。また、制御部406は、通信機器420のタッチパネル422の使用状況を記憶部401に記憶するよう通信部404を介して通信機器420に指示する。その結果、記憶部401に2台の通信機器の動作状況が記憶される。
Here, the communication device 400 shown in FIG. 4 will be described, and a case [(1) to (3)] of cooperating with the communication device 420 of the pairing partner will be described. The communication device 400 and the communication device 420 will be described on the assumption that the communication device 400 is the master.
(1) In the operation of the communication device 400, in S304 of FIG. 3, the control unit 406 of the communication device 400 that is the master instructs the storage unit 401 to store the usage status of the touch panel 402. The control unit 406 also instructs the communication device 420 via the communication unit 404 to store the usage status of the touch panel 422 of the communication device 420 in the storage unit 401. As a result, the operating states of the two communication devices are stored in the storage unit 401.

制御部406は、記憶部401に格納された通信機器400、420のタッチパネル使用状況を判断する。そして、通信機器400のタッチパネル402が使用中で、通信機器420のタッチパネル422が未使用の場合は、通信機器420を音声コマンドに応答する通信機器として決定する。
これは、音声コマンドをユーザーが発音した場合、使用中の通信機器をタッチパネルの操作画面を一時的に音声コマンドモード処理の画面に切り替えると、ユーザーの操作を邪魔することを防ぐためである。
The control unit 406 determines the touch panel usage status of the communication devices 400 and 420 stored in the storage unit 401. Then, when the touch panel 402 of the communication device 400 is in use and the touch panel 422 of the communication device 420 is unused, the communication device 420 is determined as the communication device that responds to the voice command.
This is to prevent the user's operation from being disturbed if the communication device in use is temporarily switched from the operation screen of the touch panel to the screen of the voice command mode processing when the user pronounces the voice command.

(2)ここでは、記憶部401に2台の通信機器の動作状況が記憶されると説明した。しかし、動作状況には他にも制御部406、426が処理しているプログラムの負荷状況や、外部接続409、429がそれぞれPC等に接続されている場合か否かの接続状況、または、通信機器400、420のカメラ410、430の動作状況であってもよい。
通信機器400の動作で、図3のS304において、マスターである通信機器400の制御部406は、位置・加速度検知部408の検出結果を記憶部401に記憶するよう指示する。また、制御部406は、通信機器420の位置・加速度検知部428の検出を記憶部401に記憶するよう通信部404を介して通信機器420に指示する。その結果、記憶部401に2台の通信機器の動作状況が記憶される。
(2) Here, it has been described that the operation statuses of the two communication devices are stored in the storage unit 401. However, other operating conditions include the load condition of the programs processed by the control units 406 and 426, the connection condition of whether or not the external connections 409 and 429 are connected to a PC or the like, or the communication condition. It may be the operating status of the cameras 410, 430 of the devices 400, 420.
In operation of the communication device 400, in S304 of FIG. 3, the control unit 406 of the communication device 400 that is the master instructs the storage unit 401 to store the detection result of the position/acceleration detection unit 408. Further, the control unit 406 instructs the communication device 420 via the communication unit 404 to store the detection of the position/acceleration detection unit 428 of the communication device 420 in the storage unit 401. As a result, the operating states of the two communication devices are stored in the storage unit 401.

マスターである通信機器400の制御部406が記憶部401に記憶された各通信機器の検出結果を判断し、通信機器の天地が逆転していない方の通信機器を音声コマンドに応答する通信機器として決定する。
これは、天地が逆転した状態の通信機器は鞄に入れられた状態等の状態であると判断でき、ユーザーの音声コマンド処理を行うのにふさわしくないと考えられるためである。音声コマンドの種類によっては通信機器400、420のタッチパネル402、422に情報を表示することがあり、タッチパネル402、422に表示してもユーザーに見てもらえない可能性があるためである。
The control unit 406 of the master communication device 400 determines the detection result of each communication device stored in the storage unit 401, and the communication device whose communication device is not inverted is used as the communication device that responds to the voice command. decide.
This is because it can be determined that the communication device in the upside-down state is in a state such as being put in the bag, and it is considered unsuitable for performing voice command processing of the user. This is because, depending on the type of voice command, information may be displayed on the touch panels 402 and 422 of the communication devices 400 and 420, and even if the information is displayed on the touch panels 402 and 422, it may not be seen by the user.

(3)通信機器400の動作で、図3のS304において、マスターである通信機器400の制御部406は、スピーカー407からの音の出力を禁止しているか否かの結果を記憶部401に記憶するよう指示する。また、制御部406は、通信機器420のスピーカー427からの音の出力を禁止しているか否かの結果を記憶部401に記憶するよう通信部404を介して通信機器420に指示する。その結果、記憶部401に2台の通信機器の動作状況が記憶される。 (3) In the operation of the communication device 400, in S304 of FIG. 3, the control unit 406 of the communication device 400 that is the master stores the result of whether or not the sound output from the speaker 407 is prohibited in the storage unit 401. Instruct them to do so. The control unit 406 also instructs the communication device 420 via the communication unit 404 to store the result of whether or not the output of the sound from the speaker 427 of the communication device 420 is prohibited in the storage unit 401. As a result, the operating states of the two communication devices are stored in the storage unit 401.

マスターである通信機器400の制御部406が記憶部401に記憶された各通信機器の検出結果を判断し、通信機器のスピーカーからの音の出力を禁止していない方の通信機器を音声コマンドに応答する通信機器として決定する。 The control unit 406 of the communication device 400 that is the master determines the detection result of each communication device stored in the storage unit 401, and sets the communication device that is not prohibited from outputting the sound from the speaker of the communication device to the voice command. Decide as a communication device to respond.

[第3の実施形態]
第1の実施形態、第2の実施形態では、各通信機器が受け取る音声コマンドが同じ場合を前提として説明した。本実施形態では各通信機器のマイクが受け制御部で解釈された音声コマンドに違いが発生した場合の動作について述べる。
ユーザーの発する音声コマンドは周囲の雑音や、通信機器とユーザーの位置関係が影響し、各通信機器が認識する音声コマンドが異なる場合がある。この問題の解決方法について、図1に示した通信機器100を3台用いた例で説明する。構成は先に述べたので割愛する。3台をそれぞれ識別するために通信機器100A、通信機器100B、通信機器100Cと呼ぶ。
[Third Embodiment]
The first embodiment and the second embodiment have been described on the assumption that the voice commands received by the respective communication devices are the same. In the present embodiment, the operation when the microphone of each communication device causes a difference in the voice command interpreted by the reception control unit will be described.
The voice command issued by the user may be affected by ambient noise or the positional relationship between the communication device and the user, and the voice command recognized by each communication device may differ. A solution to this problem will be described using an example in which three communication devices 100 shown in FIG. 1 are used. The composition is omitted because it has been described above. The communication devices 100A, 100B, and 100C are called to identify the three devices.

また、本実施形態で説明するのは図3のS304の部分のみであり、その他の動作は先に述べたとおりであるため割愛する。説明として、通信機器100Aがマスターとなり、音声応答するデバイスは通信機器100Bの前提で説明する。下記は、ユーザーが「何時?」と3台の通信機器100A、通信機器100B、通信機器100Cに問い合わせ、各機器が音声コマンドとして認識した場合についての説明である。 Further, only the part of S304 in FIG. 3 will be described in the present embodiment, and the other operations are as described above, and therefore will be omitted. As an explanation, it is assumed that the communication device 100A serves as a master and a device that makes a voice response is the communication device 100B. The following is a description of a case where the user inquires “what time?” to the three communication devices 100A, 100B, and 100C, and each device recognizes it as a voice command.

この場合、図3のS304において、マスターである通信機器100Aの制御部106Aがペアリング相手の通信機器100B、通信機器100Cに対し、各通信機器がどのような音声コマンドを受け取ったのかを通信部104Aを用いて問い合わせる。その問い合わせた結果は、マスターである通信機器100Aの記憶部101Aに記憶される。 In this case, in S304 of FIG. 3, the control unit 106A of the communication device 100A, which is the master, determines to the communication device 100B and the communication device 100C of the pairing partner what voice command each communication device has received. Make an inquiry using 104A. The inquiry result is stored in the storage unit 101A of the master communication device 100A.

マスターである通信機器100AのS302で、各々の通信機器100A、通信機器100B、通信機器100Cが受信した音声コマンドは、
通信機器100A:「何時?」
通信機器100B:「何時?」
通信機器100C:「何日?」
をそれぞれ認識した場合を説明する。
In S302 of the master communication device 100A, the voice commands received by the respective communication devices 100A, 100B, and 100C are
Communication device 100A: "What time?"
Communication device 100B: "What time?"
Communication device 100C: "How many days?"
The case where each is recognized will be described.

次に、マスターである通信機器100Aが、記憶部101Aにある各通信機器が受け取った音声コマンドの状態を判断し、ユーザーが発した音声コマンドを推定する。ここでは、「何時?」と理解した通信機器が通信機器100A、通信機器100Bの2台あり、「何日?」と理解したのは通信機器100Cの1台である。このため、多数決の仕組みにより「何時?」という音声コマンドを、各々の通信機器100A、通信機器100B、通信機器100Cは受け取ったと推定する。そして、マスターである通信機器100Aは音声応答する通信機器100Bに対して[「何時?」という音声コマンドに応答せよ]という内容の命令を、通信部104Aを介して通信部104Bに対して発行する。 Next, the communication device 100A that is the master determines the state of the voice command received by each communication device in the storage unit 101A, and estimates the voice command issued by the user. Here, there are two communication devices that understand "what time?", the communication device 100A and the communication device 100B, and one that understands "what day?" is one communication device 100C. Therefore, it is estimated that the communication device 100A, the communication device 100B, and the communication device 100C have received the voice command "What time?" by the majority voting mechanism. Then, the communication device 100A, which is the master, issues a command [respond to the voice command "What time?"] to the communication device 100B that responds by voice to the communication unit 104B via the communication unit 104A. ..

ここでは、多数決によって可能性の高い音声コマンドを採用し決定したが、各々の通信機器100A、通信機器100B、通信機器100Cにおいて、105A、105B、105Cのマイクが検知する音圧値と合わせて判断してもよい。つまり、音圧が高い通信機器が判断した音声コマンドには配点を高くし、音声コマンド毎の点数によって音声コマンドを決定してもよい。
このようにして、ユーザーが発信した音声コマンドに最も確からしい音声コマンドを再認識し、認識精度を高める。
Here, a voice command with a high possibility is adopted by a majority decision, but it is determined together with the sound pressure value detected by the microphones 105A, 105B, 105C in each of the communication device 100A, communication device 100B, and communication device 100C. You may. That is, it is also possible to give a higher score to a voice command determined by a communication device having a high sound pressure and determine the voice command based on the score of each voice command.
In this way, the voice command most likely to be transmitted from the user is recognized again and the recognition accuracy is improved.

(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, the software (computer program) that realizes the functions of the above-described embodiments is supplied to the system or the device via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.

100、110 通信機器
101、111 記憶部
102、112 タッチパネル
103、113 画面合成部
104、114 通信部
105、115 マイク
106、116 制御部
100, 110 Communication device 101, 111 Storage unit 102, 112 Touch panel 103, 113 Screen composition unit 104, 114 Communication unit 105, 115 Microphone 106, 116 Control unit

本発明の通信装置は、ユーザーからの音声入力を受け付ける第一の音声入力手段と、音を出力する第一の出力手段と、ユーザーからの音声入力を受け付ける第二の音声入力手段と音を出力する第二の出力手段とを有する外部装置と無線通信する通信手段と、前記第一の音声入力手段で受け付けた音声に含まれる音声コマンドに応答する装置を、前記通信装置および前記外部装置のどちらか一方に決定する制御手段と、を有し、前記制御手段は、前記第一の出力手段から音を出力するか否かを制御し、前記制御手段は、前記外部装置が前記第二の出力手段から音を出力するか否かに関する情報を前記通信手段を介して受信し、前記制御手段は、前記第一の音声入力手段で受け付けた音声から音声コマンドが抽出された場合、前記通信装置および前記外部装置のうち、音の出力を禁止していない方を前記音声コマンドに応答する装置として決定し、前記制御手段は、前記第一の音声入力手段で受け付けた音声から音声コマンドが抽出された場合、前記通信装置および前記外部装置のうち、どちらの装置も音の出力を禁止していない場合では、前記通信装置および前記外部装置のうち、前記第一の音声入力手段で受け付けた音声の発生源に近い方を前記音声コマンドに応答する装置として決定し、前記制御手段は、前記通信装置が前記音声コマンドに応答する装置として決定された場合、前記第一の音声入力手段で入力された音声から抽出された音声コマンドに応答することを特徴とする。 The communication device of the present invention outputs first sound, a first sound input unit that receives a sound input from a user, a first output unit that outputs a sound, and a second sound input unit that receives a sound input from the user. A communication unit that wirelessly communicates with an external device having a second output unit, and a device that responds to a voice command included in the voice received by the first voice input unit, whichever of the communication device and the external device. And a control unit that determines whether to output a sound from the first output unit, and the control unit controls the external device to output the second output. The information about whether to output a sound from the means is received via the communication means, the control means, when a voice command is extracted from the voice received by the first voice input means, the communication device and Of the external devices, the one that does not prohibit sound output is determined as the device that responds to the voice command, and the control unit extracts the voice command from the voice received by the first voice input unit. In this case, if neither of the communication device and the external device prohibits sound output, the generation of the sound received by the first sound input means of the communication device and the external device. The one closer to the source is determined as the device that responds to the voice command, and the control unit determines that the voice input by the first voice input unit when the communication device is determined as the device that responds to the voice command. It responds to the voice command extracted from .

本発明は通信装置び制御方法に関し、特に、ユーザーが発する音声を認識可能な通信装置に関する。 The present invention relates to communication apparatusbeauty CONTROL METHOD, more particularly, to a recognizable communication device voice user emitted.

Claims (11)

通信機器全体の動作を制御する制御手段と、
他の通信機器との間で通信を行う通信手段と、
前記通信手段によって通信可能な連携相手の機器情報を保持するとともに、前記制御手段によって動作するプログラムを記憶部に記憶する記憶手段と、
ユーザーからの音声入力を受け付ける音声入力手段と、
前記音声入力手段で受け付けた音声を解析して音声コマンドを抽出する音声解析手段とを備えた通信機器であって、
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、
前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信手段を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定することを特徴とする通信機器。
Control means for controlling the operation of the entire communication device,
Communication means for communicating with other communication devices,
Storage means for holding device information of a cooperation partner with which the communication means can communicate, and storing a program operated by the control means in a storage part;
A voice input means for receiving voice input from the user,
A communication device comprising a voice analysis unit that analyzes a voice received by the voice input unit and extracts a voice command,
When a voice command is extracted by the voice analysis unit,
The control means is
Based on the device information of the cooperation partner stored in the storage unit, the state of each communication device is exchanged with a plurality of communication devices that cooperate through the communication means, and based on the states of the plurality of communication devices. And a communication device that responds to the voice command.
前記音声解析手段により音声コマンドが抽出された際に、前記記憶部に他の通信機器が登録されていなかった場合は、
前記音声コマンドを抽出した通信機器が前記音声コマンドに応答することを特徴とする請求項1に記載の通信機器。
If no other communication device is registered in the storage unit when the voice command is extracted by the voice analysis unit,
The communication device according to claim 1, wherein the communication device that has extracted the voice command responds to the voice command.
前記記憶手段は、どの通信機器を音声応答で優先させるかの情報を、前記記憶部に記憶した連携相手の機器情報に合わせて記憶し、
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記記憶部に記憶された優先順位の高い応答可能な通信機器が応答するように、前記音声コマンドに応答する通信機器を決定することを特徴とする請求項1または2に記載の通信機器。
The storage means stores information regarding which communication device is prioritized in a voice response in accordance with the device information of the cooperation partner stored in the storage unit,
When a voice command is extracted by the voice analysis unit,
The control unit determines a communication device that responds to the voice command so that a communication device that is responsive and has a high priority stored in the storage unit responds. Communication equipment.
更に通信機器の姿勢を検知する姿勢検知手段を備え、
前記記憶手段は、前記姿勢検知手段により検知される姿勢情報を、前記記憶部に記憶した連携相手の機器情報に合わせて記憶し、
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記記憶部に記憶された前記姿勢情報に基づいて、前記音声コマンドに応答する通信機器を決定することを特徴とする請求項1〜3の何れか1項に記載の通信機器。
Furthermore, it is equipped with attitude detection means for detecting the attitude of the communication device,
The storage unit stores the posture information detected by the posture detection unit according to the device information of the cooperation partner stored in the storage unit,
When a voice command is extracted by the voice analysis unit,
The communication device according to any one of claims 1 to 3, wherein the control unit determines a communication device that responds to the voice command based on the posture information stored in the storage unit. ..
更に表示部を備え、
音声コマンドに他の通信機器が応答する場合は、
前記制御手段は、前記表示部にその旨の表示を行うよう制御することを特徴とする請求項1〜4の何れか1項に記載の通信機器。
Further equipped with a display unit,
If another communication device responds to the voice command,
The communication device according to any one of claims 1 to 4, wherein the control unit controls the display unit to display a message to that effect.
音声コマンドに他の通信機器が応答中の場合、
前記制御手段は、新しい音声コマンドを受け付けないよう制御することを特徴とする請求項1〜5の何れか1項に記載の通信機器。
If another communication device is responding to the voice command,
The communication device according to any one of claims 1 to 5, wherein the control unit controls so as not to accept a new voice command.
前記通信手段は、応答終了時に、他の通信機器に音声コマンドに対する応答が終了したことを通知することを特徴とする請求項1〜6の何れか1項に記載の通信機器。 The communication device according to any one of claims 1 to 6, wherein the communication means notifies another communication device that the response to the voice command has ended when the response ends. 前記記憶手段は、前記音声入力手段が感知する音の音圧情報を、前記記憶部に記憶した連携相手の機器情報に合わせて記憶し、
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記記憶部に記憶された前記音圧情報に基づいて、前記音声コマンドに応答する通信機器を決定することを特徴とする請求項1〜7の何れか1項に記載の通信機器。
The storage means stores the sound pressure information of the sound sensed by the voice input means in accordance with the device information of the cooperation partner stored in the storage unit,
When a voice command is extracted by the voice analysis unit,
The communication device according to claim 1, wherein the control unit determines a communication device that responds to the voice command based on the sound pressure information stored in the storage unit. machine.
前記音声解析手段により音声コマンドが抽出された場合、
前記制御手段は、前記抽出された音声コマンドと、前記記憶部に記憶された連携相手の機器が認識した音声コマンドとを比較し、それぞれの連携相手の機器が異なる音声コマンドを認識していた場合に、
可能性の高い音声コマンドを採用することを特徴とする請求項1〜8の何れか1項に記載の通信機器。
When a voice command is extracted by the voice analysis unit,
When the control unit compares the extracted voice command with the voice command recognized by the cooperation partner device stored in the storage unit, and the respective cooperation partner devices recognize different voice commands. To
The communication device according to claim 1, wherein a voice command having a high possibility is adopted.
通信機器全体の動作を制御する制御工程と、
他の通信機器との間で通信を行う通信工程と、
前記通信工程において通信可能な連携相手の機器情報を保持するとともに、前記制御工程において動作するプログラムを記憶部に記憶する記憶工程と、
ユーザーからの音声入力を受け付ける音声入力工程と、
前記音声入力工程で受け付けた音声を解析して音声コマンドを抽出する音声解析工程とを備えた通信機器の制御方法であって、
前記音声解析工程において音声コマンドが抽出された場合、
前記制御工程は、
前記記憶部に記憶された連携相手の機器情報に基づいて、前記通信工程を通し、連携する複数の通信機器に対して各通信機器の状態を交換し、複数の通信機器の状態をもとに、前記音声コマンドに応答する通信機器を決定することを特徴とする通信機器の制御方法。
A control process for controlling the operation of the entire communication device,
A communication process for communicating with other communication devices,
A storage step of holding device information of a cooperation partner capable of communicating in the communication step and storing a program operating in the control step in a storage section,
A voice input process that receives voice input from the user,
A method of controlling a communication device, comprising: a voice analysis step of analyzing a voice received in the voice input step to extract a voice command,
When a voice command is extracted in the voice analysis step,
The control step is
Based on the device information of the cooperation partner stored in the storage unit, the state of each communication device is exchanged for a plurality of communication devices that cooperate through the communication process, and based on the state of the plurality of communication devices. A method of controlling a communication device, comprising determining a communication device that responds to the voice command.
コンピュータを、請求項1〜9の何れか1項に記載の通信機器の各手段として機能させるためのコンピュータが読み取り可能なプログラム。 A computer-readable program for causing a computer to function as each unit of the communication device according to claim 1.
JP2020031888A 2015-12-08 2020-02-27 Communication equipment, control methods, and programs Active JP6905115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020031888A JP6905115B2 (en) 2015-12-08 2020-02-27 Communication equipment, control methods, and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015239534A JP2017107333A (en) 2015-12-08 2015-12-08 Communication apparatus and communication apparatus control method
JP2020031888A JP6905115B2 (en) 2015-12-08 2020-02-27 Communication equipment, control methods, and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015239534A Division JP2017107333A (en) 2015-12-08 2015-12-08 Communication apparatus and communication apparatus control method

Publications (2)

Publication Number Publication Date
JP2020095737A true JP2020095737A (en) 2020-06-18
JP6905115B2 JP6905115B2 (en) 2021-07-21

Family

ID=71086224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020031888A Active JP6905115B2 (en) 2015-12-08 2020-02-27 Communication equipment, control methods, and programs

Country Status (1)

Country Link
JP (1) JP6905115B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116787A (en) * 2000-07-10 2002-04-19 Matsushita Electric Ind Co Ltd Priority deciding device, priority deciding method and priority deciding program
JP2003223188A (en) * 2002-01-29 2003-08-08 Toshiba Corp Voice input system, voice input method, and voice input program
JP2004234529A (en) * 2003-01-31 2004-08-19 Cross Culture Ltd Kiosk terminal
JP2009005039A (en) * 2007-06-21 2009-01-08 Casio Hitachi Mobile Communications Co Ltd Electronic apparatus and program
WO2010070781A1 (en) * 2008-12-16 2010-06-24 三菱電機株式会社 Navigation device
JP2014103545A (en) * 2012-11-20 2014-06-05 Sharp Corp Detection device and detection program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116787A (en) * 2000-07-10 2002-04-19 Matsushita Electric Ind Co Ltd Priority deciding device, priority deciding method and priority deciding program
JP2003223188A (en) * 2002-01-29 2003-08-08 Toshiba Corp Voice input system, voice input method, and voice input program
JP2004234529A (en) * 2003-01-31 2004-08-19 Cross Culture Ltd Kiosk terminal
JP2009005039A (en) * 2007-06-21 2009-01-08 Casio Hitachi Mobile Communications Co Ltd Electronic apparatus and program
WO2010070781A1 (en) * 2008-12-16 2010-06-24 三菱電機株式会社 Navigation device
JP2014103545A (en) * 2012-11-20 2014-06-05 Sharp Corp Detection device and detection program

Also Published As

Publication number Publication date
JP6905115B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
CN110651241A (en) Connecting multiple mobile devices to a smart home assistant account
KR20190051368A (en) Electronic apparatus and Method of executing a function by speech recognition between the electronic apparatus
EP3246790B1 (en) Information processing of combined voice and gesture input operations
KR102141116B1 (en) Interface device and method supporting speech dialogue survice
KR20210016815A (en) Electronic device for managing a plurality of intelligent agents and method of operating thereof
JP2018054866A (en) Voice interactive apparatus and voice interactive method
US20190189120A1 (en) Method for providing artificial intelligence service during phone call and electronic device thereof
KR20200043642A (en) Electronic device for ferforming speech recognition using microphone selected based on an operation state and operating method thereof
JP2017107333A (en) Communication apparatus and communication apparatus control method
CN111093133B (en) Wireless device control method, apparatus and computer readable storage medium
KR102629796B1 (en) An electronic device supporting improved speech recognition
KR101579292B1 (en) Apparatus and method for universal control using speech recognition
US20190026265A1 (en) Information processing apparatus and information processing method
EP3547310A1 (en) Electronic device for processing user voice
JP7133969B2 (en) Voice input device and remote dialogue system
JP6985113B2 (en) How to provide an interpreter function for electronic devices
CN112308569A (en) Application function calling method, device, terminal and storage medium
JP6905115B2 (en) Communication equipment, control methods, and programs
CN112119372A (en) Electronic device and control method thereof
KR102393112B1 (en) Method and apparatus for function of translation using earset
JP6688457B2 (en) Call processing system, call processing device, call processing method, and call processing program
US11972763B2 (en) Method and apparatus for supporting voice agent in which plurality of users participate
KR20190092768A (en) Apparatus and method for transmitting private information to automatic response system
KR102543656B1 (en) Screen controlling method and electronic device supporting the same
JP7141226B2 (en) Voice input device and remote dialogue system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210624

R151 Written notification of patent or utility model registration

Ref document number: 6905115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151