JP2020129776A - Control system - Google Patents

Control system Download PDF

Info

Publication number
JP2020129776A
JP2020129776A JP2019022427A JP2019022427A JP2020129776A JP 2020129776 A JP2020129776 A JP 2020129776A JP 2019022427 A JP2019022427 A JP 2019022427A JP 2019022427 A JP2019022427 A JP 2019022427A JP 2020129776 A JP2020129776 A JP 2020129776A
Authority
JP
Japan
Prior art keywords
speaker
operator
voice
voice response
television
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019022427A
Other languages
Japanese (ja)
Other versions
JP7181116B2 (en
Inventor
鈴木 喬
Takashi Suzuki
喬 鈴木
幸一 中川
Koichi Nakagawa
幸一 中川
知敬 湯浅
Tomotaka Yuasa
知敬 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2019022427A priority Critical patent/JP7181116B2/en
Publication of JP2020129776A publication Critical patent/JP2020129776A/en
Application granted granted Critical
Publication of JP7181116B2 publication Critical patent/JP7181116B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)

Abstract

To provide a control system that can switch a speaker that responds to an operator's instruction.SOLUTION: A TV 10 includes a TV speaker 11. The TV speaker 11 is a first speaker included in the TV 10. A DV speaker 32 and an SP speaker 42 are second speakers that are connected to a set top box 20 wirelessly or by wire. A server device 50 determines one of the first speaker and the second speaker as a speaker that performs voice response to a control content instructed by the TV 10 by an operator. The determination is made on the basis of various conditions, but for example, the determination is made on the basis of a distance between the operator and the TV 10. The server device 50 performs control for making voice response from the determined speaker.SELECTED DRAWING: Figure 1

Description

本発明は、操作者の指示に対して音声で応答するための技術に関する。 The present invention relates to a technique for making a voice response to an instruction from an operator.

音声認識技術の進歩により、操作者が機器に対して音声で指示すると、その指示に対して音声で応答するとともにその指示に応じた処理を行う仕組みが普及しつつある。例えば特許文献1には、発話による音声コマンドを受け取ったロボットがその音声コマンドから特定した操作命令を家電に送信し、家電がその操作命令に従って稼働できたか否かを音声で出力することが開示されている。 2. Description of the Related Art With the advancement of voice recognition technology, when an operator gives a voice instruction to a device, a mechanism that responds to the instruction with a voice and performs processing according to the instruction is becoming widespread. For example, Patent Document 1 discloses that a robot that receives a voice command by utterance transmits an operation command specified from the voice command to a home appliance and outputs by voice whether or not the home appliance can operate in accordance with the operation command. ing.

特開2016−76799号公報JP, 2016-76799, A

音声による制御の対象としてテレビジョン受信機を想定した場合、テレビジョン受信機には各種の音声入出力装置が接続可能であるため、操作者の指示に対して音声で応答するスピーカの候補が複数あり得る。 When a television receiver is assumed to be controlled by voice, various voice input/output devices can be connected to the television receiver, so that there are multiple speaker candidates that respond to the operator's instructions by voice. possible.

そこで、本発明は、テレビジョン受信機に対する操作者の指示に音声応答を行うスピーカを切り替えられる仕組みを提供することを目的とする。 Therefore, it is an object of the present invention to provide a mechanism capable of switching a speaker that makes a voice response to an instruction of an operator for a television receiver.

上記課題を解決するため、本発明は、テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制御部とを備えることを特徴とする制御システムを提供する。 In order to solve the above-mentioned problems, the present invention provides a first speaker included in a television receiver, or a control for converting a broadcast signal into a signal that can be viewed by the television receiver and controlling the television receiver. A determination unit that determines any one of the second speakers connected to the apparatus via a wireless or wired connection as a speaker that performs a voice response to the control content instructed by the operator to the television receiver, and the determination unit. And a response control unit that performs control for performing the voice response from the speaker determined by the control system.

前記決定部は、前記操作者と前記テレビジョン受信機との距離に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The determining unit may determine a speaker that performs the voice response based on a distance between the operator and the television receiver.

前記決定部は、前記操作者からの音声の音量と前記テレビジョン受信機からの音声の音量に基づいて、前記操作者と前記テレビジョン受信機との距離を推定するようにしてもよい。 The determination unit may estimate the distance between the operator and the television receiver based on the volume of the voice from the operator and the volume of the voice from the television receiver.

前記決定部は、操作者に聞こえる騒音の音量に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The determination unit may determine the speaker that performs the voice response based on the volume of noise heard by the operator.

前記決定部は、時間帯に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The determining unit may determine a speaker to perform the voice response based on a time zone.

前記決定部は、操作者以外の人間の有無に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The determination unit may determine the speaker that performs the voice response based on the presence or absence of a person other than the operator.

前記決定部は、前記操作者から指示された制御内容に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The deciding unit may decide the speaker to perform the voice response based on the control content instructed by the operator.

前記決定部は、前記テレビジョン受信機により出力されている番組の内容に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The deciding unit may decide a speaker to perform the voice response based on the content of the program output by the television receiver.

前記決定部は、操作者による音声発話の速度に基づいて、前記音声応答を行うスピーカを決定するようにしてもよい。 The determining unit may determine the speaker to perform the voice response based on the speed of voice utterance by the operator.

本発明によれば、操作者の指示に対する音声応答を行うスピーカを切り替えることが可能となる。 According to the present invention, it is possible to switch the speaker that makes a voice response to the instruction of the operator.

本発明の一実施形態に係る制御システムの構成を例示する図である。It is a figure which illustrates the structure of the control system which concerns on one Embodiment of this invention. サーバ装置のハードウェア構成を例示するブロック図である。It is a block diagram which illustrates the hardware constitutions of a server apparatus. スマートホンのハードウェア構成を例示するブロック図である。It is a block diagram which illustrates the hardware constitutions of a smart phone. 制御システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a control system. テレビジョン受信機と操作者との距離の例を示す図である。It is a figure which shows the example of the distance of a television receiver and an operator. サーバ装置による動作を例示するフローチャートである。It is a flow chart which illustrates operation by a server device.

[構成]
図1は、本実施形態の制御システム1の構成を例示する図である。制御システム1は、テレビジョン受信機10(以下、テレビ10という)と、セットトップボックス20と、音声デバイス30と、スマートホン40と、サーバ装置50と、これらのセットトップボックス20、スマートホン40及びサーバ装置50を通信可能に接続するネットワーク2とを備える。セットトップボックス20は、図示せぬチューナ等を内蔵しており、放送信号をテレビ10において視聴可能な信号に変換してそのテレビ10を制御する制御装置である。音声デバイス30は、音声の入出力を主な機能とした装置である。スマートホン40は操作者が携帯するのに適した通信装置である。ネットワーク2は、例えばWifi(登録商標)やLTE(Long Term Evolution)等の任意の通信規格の無線又は有線の通信網であり、図示せぬ無線基地局やその上位装置を含んでいる。テレビ10とセットトップボックス20は、例えばHDMI(High-Definition Multimedia Interface)(登録商標)により接続されている。セットトップボックス20と音声デバイス30は、例えばBLE(Bluetooth(登録商標) Low Energy)により接続されている。スマートホン40とセットトップボックス20は、ネットワーク2により接続されている。なお、図1には、テレビジョン受信機10と、セットトップボックス20と、音声デバイス30と、スマートホン40と、サーバ装置50をそれぞれ1つのみ示しているが、これらは複数であってもよい。
[Constitution]
FIG. 1 is a diagram illustrating a configuration of a control system 1 of this embodiment. The control system 1 includes a television receiver 10 (hereinafter, referred to as a television 10), a set top box 20, an audio device 30, a smart phone 40, a server device 50, the set top box 20, and the smart phone 40. And a network 2 for connecting the server device 50 in a communicable manner. The set top box 20 is a control device which has a tuner (not shown) and the like built therein, converts a broadcast signal into a signal that can be viewed on the television 10, and controls the television 10. The voice device 30 is a device whose main function is input/output of voice. The smart phone 40 is a communication device suitable for being carried by an operator. The network 2 is a wireless or wired communication network of an arbitrary communication standard such as Wifi (registered trademark) or LTE (Long Term Evolution), and includes a wireless base station (not shown) and its host device. The television 10 and the set top box 20 are connected by, for example, HDMI (High-Definition Multimedia Interface) (registered trademark). The set top box 20 and the audio device 30 are connected by, for example, BLE (Bluetooth (registered trademark) Low Energy). The smart phone 40 and the set top box 20 are connected by the network 2. It should be noted that FIG. 1 shows only one each of the television receiver 10, the set top box 20, the audio device 30, the smartphone 40, and the server device 50, but a plurality of these may be used. Good.

テレビ10は、図示せぬディスプレイやチューナ等のほか、スピーカ11(以下、TVスピーカ11という)を備えている。音声デバイス30は、図示せぬBLE通信ユニット等のほか、マイク21(以下、DVマイク21という)と、スピーカ22(以下、DVスピーカ22という)とを備えている。スマートホン40の構成は後に詳述するが、このスマートホン40は、マイク41(以下、SPマイク41という)と、スピーカ42(以下、SPスピーカ42という)とを備えている。TVスピーカ11は、テレビ10が備える第1のスピーカである。DVスピーカ22及びSPスピーカ42はそれぞれ、セットトップボックス20に無線又は有線を介して接続される第2のスピーカである。 The television 10 includes a display 11 (not shown), a tuner, and the like, and a speaker 11 (hereinafter, referred to as a TV speaker 11). The audio device 30 includes a microphone 21 (hereinafter referred to as a DV microphone 21) and a speaker 22 (hereinafter referred to as a DV speaker 22) in addition to a BLE communication unit (not shown) and the like. Although the configuration of the smart phone 40 will be described later in detail, the smart phone 40 includes a microphone 41 (hereinafter referred to as SP microphone 41) and a speaker 42 (hereinafter referred to as SP speaker 42). The TV speaker 11 is a first speaker included in the television 10. The DV speaker 22 and the SP speaker 42 are second speakers that are connected to the set top box 20 wirelessly or by wire.

操作者がテレビ10に対して音声によって所望の制御を指示すると、この音声はDVマイク21又はSPマイク41によって収音される。この音声は既知の音声認識技術により解析され、操作者が指示した制御内容がテレビ10において実行される。操作者の音声がDVマイク21によって収音された場合は、その音声データが音声デバイス30からセットトップボックス20を介してネットワーク2経由でサーバ装置50に送信され、サーバ装置50により音声認識がなされ、サーバ装置50の制御下でその音声認識結果に応じた制御内容がテレビ10において実行される。一方、操作者の音声がSPマイク41によって収音された場合は、その音声データがスマートホン40からネットワーク2経由でサーバ装置50に送信され、サーバ装置50により音声認識がなされ、サーバ装置50の制御下でその音声認識結果に応じた制御内容がテレビ10において実行される。 When the operator instructs the television 10 to perform desired control by voice, this voice is picked up by the DV microphone 21 or the SP microphone 41. This voice is analyzed by a known voice recognition technique, and the control content instructed by the operator is executed on the television 10. When the voice of the operator is picked up by the DV microphone 21, the voice data is transmitted from the voice device 30 to the server device 50 via the network 2 via the set top box 20, and the server device 50 performs voice recognition. Under the control of the server device 50, the control content according to the voice recognition result is executed in the television 10. On the other hand, when the voice of the operator is picked up by the SP microphone 41, the voice data is transmitted from the smart phone 40 to the server device 50 via the network 2, the server device 50 performs voice recognition, and the server device 50 performs the voice recognition. Under the control, the control content according to the voice recognition result is executed in the television 10.

このような操作者による指示に対して、TVスピーカ11(つまり第1のスピーカ)又はDVスピーカ22若しくはSPスピーカ42(つまり第2のスピーカ)から音声による応答がなされるようになっている。この音声による応答とは、例えば操作者による指示を受け付けた旨のメッセージや、操作者による指示に対する回答や質問等のメッセージである。 In response to such an instruction from the operator, the TV speaker 11 (that is, the first speaker) or the DV speaker 22 or the SP speaker 42 (that is, the second speaker) makes a voice response. The voice response is, for example, a message indicating that the operator's instruction has been accepted, or a message such as an answer or question to the operator's instruction.

サーバ装置50は、これらの第1のスピーカ又は第2のスピーカのうちいずれかを、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する。このスピーカの決定は様々な条件に基づいてなされるようになっているが、本実施形態では、操作者とテレビ10との距離に基づいてこの決定がなされる例を説明する。 The server device 50 determines either of the first speaker or the second speaker as a speaker that performs a voice response to the control content instructed by the operator on the television 10. The determination of the speaker is made based on various conditions, but in the present embodiment, an example in which the determination is made based on the distance between the operator and the television 10 will be described.

図2は、サーバ装置50のハードウェア構成を示す図である。サーバ装置50は、物理的には、プロセッサ5001、メモリ5002、ストレージ5003、通信装置5004、入力装置5005、出力装置5006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。サーバ装置50のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 FIG. 2 is a diagram showing a hardware configuration of the server device 50. The server device 50 is physically configured as a computer device including a processor 5001, a memory 5002, a storage 5003, a communication device 5004, an input device 5005, an output device 5006, and a bus connecting these. In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the server device 50 may be configured to include one or a plurality of each device illustrated in the figure, or may be configured not to include some devices.

サーバ装置50における各機能は、プロセッサ5001、メモリ5002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ5001が演算を行い、通信装置5004による通信を制御したり、メモリ5002及びストレージ5003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 For each function in the server device 50, a predetermined software (program) is read on hardware such as the processor 5001 and the memory 5002, so that the processor 5001 performs an operation to control communication by the communication device 5004 and the memory 5002. In addition, it is realized by controlling at least one of reading and writing of data in the storage 5003.

プロセッサ5001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ5001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ5001によって実現されてもよい。 The processor 5001 operates an operating system to control the entire computer, for example. The processor 5001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like. Further, for example, a baseband signal processing unit and a call processing unit may be realized by the processor 5001.

プロセッサ5001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ5003及び通信装置5004の少なくとも一方からメモリ5002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。サーバ装置50の機能ブロックは、メモリ5002に格納され、プロセッサ5001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ5001によって実行されてもよいが、2以上のプロセッサ5001により同時又は逐次に実行されてもよい。プロセッサ5001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワーク2からサーバ装置50に送信されてもよい。 The processor 5001 reads a program (program code), software module, data, and the like from at least one of the storage 5003 and the communication device 5004 to the memory 5002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described below is used. The functional block of the server device 50 may be realized by a control program stored in the memory 5002 and operating in the processor 5001. Various processes may be executed by one processor 5001, but may be executed simultaneously or sequentially by two or more processors 5001. The processor 5001 may be implemented by one or more chips. The program may be transmitted from the network 2 to the server device 50 via an electric communication line.

メモリ5002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ5002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ5002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 5002 is a computer-readable recording medium, and is configured by at least one of a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), and the like. May be done. The memory 5002 may be called a register, a cache, a main memory (main storage device), or the like. The memory 5002 may store programs (program codes), software modules, etc. that can be executed to implement the method according to the present exemplary embodiment.

ストレージ5003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ5003は、補助記憶装置と呼ばれてもよい。 The storage 5003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (for example, a compact disc, a digital versatile disc, a Blu-ray disc). (Registered trademark) disk, smart card, flash memory (for example, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 5003 may be called an auxiliary storage device.

通信装置5004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 5004 is hardware (transmission/reception device) for performing communication between computers via at least one of a wired network and a wireless network, and is also called, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置5005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、スイッチなど)である。出力装置5006は、外部への出力を実施する出力デバイス(例えば、ディスプレイなど)である。なお、入力装置5005及び出力装置5006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 5005 is an input device (for example, a keyboard, a mouse, a switch, etc.) that receives an input from the outside. The output device 5006 is an output device (for example, a display) that outputs to the outside. Note that the input device 5005 and the output device 5006 may be integrated (for example, a touch panel).

プロセッサ5001、メモリ5002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 The respective devices such as the processor 5001 and the memory 5002 are connected by a bus for communicating information. The bus may be configured by using a single bus, or may be configured by using a different bus for each device.

サーバ装置50は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ5001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 The server device 50 is configured to include hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). Alternatively, a part or all of each functional block may be realized by the hardware. For example, processor 5001 may be implemented with at least one of these hardware.

図3は、スマートホン40のハードウェア構成を示す図である。スマートホン40は、表示機能を備えており、本発明における表示装置として機能する。スマートホン40は、物理的には、プロセッサ4001、メモリ4002、ストレージ4003、スマートホン4004、入力装置4005、出力装置4006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。プロセッサ4001、メモリ4002、ストレージ4003、入力装置4005、出力装置4006は、サーバ装置50が備えるプロセッサ5001、メモリ5002、ストレージ5003、入力装置5005、出力装置5006と同様の装置群である。入力装置5005は、前述したSPマイク41を含む。出力装置5006は、前述したSPスピーカ42を含む。 FIG. 3 is a diagram showing a hardware configuration of the smart phone 40. The smart phone 40 has a display function and functions as a display device in the present invention. The smart phone 40 is physically configured as a computer device including a processor 4001, a memory 4002, a storage 4003, a smart phone 4004, an input device 4005, an output device 4006, and a bus connecting these. The processor 4001, the memory 4002, the storage 4003, the input device 4005, and the output device 4006 are the same device group as the processor 5001, the memory 5002, the storage 5003, the input device 5005, and the output device 5006 included in the server device 50. The input device 5005 includes the SP microphone 41 described above. The output device 5006 includes the SP speaker 42 described above.

なお、スマートホン4004は無線通信に適した構成、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどの構成を含んでいてもよい。例えば、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、スマートホン4004によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。 Note that the smart phone 4004 has a configuration suitable for wireless communication, for example, a high frequency switch and a duplexer in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). , A filter, a frequency synthesizer, etc. may be included. For example, the transmission/reception antenna, the amplifier unit, the transmission/reception unit, the transmission line interface, and the like may be realized by the smart phone 4004. The transmitter/receiver may be implemented by physically or logically separating the transmitter and the receiver.

図4は、制御システム1の機能構成の一例を示すブロック図である。サーバ装置50において、取得部51は、音声デバイス30のDVマイク31に入力された操作者の音声データをセットトップボックス20及びネットワーク2経由で取得する。また、取得部51は、スマートホン40のSPマイク41に入力された操作者の音声データをネットワーク2経由で取得する。 FIG. 4 is a block diagram showing an example of the functional configuration of the control system 1. In the server device 50, the acquisition unit 51 acquires the voice data of the operator input to the DV microphone 31 of the voice device 30 via the set top box 20 and the network 2. Further, the acquisition unit 51 acquires the voice data of the operator input to the SP microphone 41 of the smart phone 40 via the network 2.

サーバ装置50において、決定部52は、取得部51により操作者の音声データが取得された場合、TVスピーカ11(つまり第1のスピーカ)、又は、DVスピーカ32若しくはSPスピーカ42(つまり第2のスピーカ)のいずれかを、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する。本実施形態において、決定部52は、音声応答を行うスピーカを操作者とテレビ10との距離に基づいて決定するためのアルゴリズムを記憶している。このアルゴリズムは、操作者とテレビ10との距離を求めるアルゴリズムと、その距離に基づいて音声応答を行うスピーカを決定するアルゴリズムとを含む。 In the server device 50, when the voice data of the operator is acquired by the acquisition unit 51, the determination unit 52, the TV speaker 11 (that is, the first speaker), or the DV speaker 32 or the SP speaker 42 (that is, the second speaker). One of the speakers) is determined as a speaker that makes a voice response to the control content instructed by the operator on the television 10. In the present embodiment, the determination unit 52 stores an algorithm for determining a speaker that makes a voice response based on the distance between the operator and the television 10. This algorithm includes an algorithm for obtaining the distance between the operator and the television 10 and an algorithm for determining a speaker that makes a voice response based on the distance.

操作者とテレビ10との距離を求めるアルゴリズムは、例えば、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量と、DVマイク31又はSPマイク41が収音した操作者からの音声の音量とに基づいて、操作者とテレビ10との距離を推定するというものである。具体的には、決定部52は、テレビ10からの音声の音量と操作者からの音声の音量としてそれぞれ標準的な音量(標準音量)を予め決めておき、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量を標準音量で除算した値と、DVマイク31又はSPマイク41が収音した操作者からの音声の音量を標準音量で除算した値との比較に基づいて、操作者とテレビ10との距離を推定する。テレビ10からの音声の標準音量は、例えばテレビ10から出力される音量毎に決められた音量であってもよい。つまり、テレビ10から出力するようユーザ等により指定された音量は特定し得るから、決定部52は、その音量に応じて標準音量を決めてもよい。 The algorithm for obtaining the distance between the operator and the television 10 is, for example, the volume of the sound from the television 10 picked up by the DV microphone 31 or the SP microphone 41 and the operator's volume picked up by the DV microphone 31 or the SP microphone 41. The distance between the operator and the television 10 is estimated based on the sound volume of the voice. Specifically, the determination unit 52 predetermines a standard volume (standard volume) as the volume of the sound from the television 10 and the volume of the sound from the operator, and the DV microphone 31 or the SP microphone 41 receives the sound. Based on a comparison between a value obtained by dividing the volume of the sound of the sounded television 10 by the standard volume and a value obtained by dividing the volume of the sound of the operator picked up by the DV microphone 31 or the SP microphone 41 by the standard volume, The distance between the operator and the television 10 is estimated. The standard volume of the sound from the television 10 may be a volume determined for each volume output from the television 10, for example. That is, since the volume designated by the user or the like to be output from the television 10 can be specified, the determination unit 52 may determine the standard volume according to the volume.

図5の例で説明すると、同図(A)に例示するように、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量を標準音量で除算した値が、DVマイク31又はSPマイク41が収音した操作者からの音声の音量を標準音量で除算した値に対して小さいと評価された場合は、操作者とテレビ10との距離が遠いと推定される。また、同図(B)に例示するように、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量を標準音量で除算した値が、DVマイク31又はSPマイク41が収音した操作者からの音声の音量を標準音量で除算した値に対して大きいと評価された場合は、操作者とテレビ10との距離が近いと推定される。 In the example of FIG. 5, as illustrated in FIG. 5A, the value obtained by dividing the volume of the sound from the television 10 picked up by the DV microphone 31 or the SP microphone 41 by the standard volume is the DV microphone 31 or When it is evaluated that the volume of the voice from the operator picked up by the SP microphone 41 is divided by the standard volume, the distance between the operator and the television 10 is estimated to be long. Further, as illustrated in FIG. 3B, the value obtained by dividing the volume of the sound from the TV 10 collected by the DV microphone 31 or the SP microphone 41 by the standard volume is the sound collected by the DV microphone 31 or the SP microphone 41. When it is evaluated that the volume of the voice from the operator is larger than the value obtained by dividing the volume by the standard volume, it is estimated that the distance between the operator and the television 10 is short.

音声応答を行うスピーカを決定するアルゴリズムは、例えば、操作者とテレビ10との距離が閾値以上の場合(つまり操作者からテレビ10が遠い)場合には、DVスピーカ32又はSPスピーカ42を、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する一方、操作者とテレビ10との距離が閾値未満の場合(つまり操作者からテレビ10が近い)場合には、TVスピーカ11を、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定するというものである。操作者からテレビ10が遠い場合にDVスピーカ32又はSPスピーカ42が音声応答のスピーカとして決定される理由は、DVスピーカ32又はSPスピーカ42は、操作者によって携帯されるか若しくは操作者の音声を検出しやすい位置にあることが前提であるから、テレビ10よりも操作者に近い位置にあって、操作者が応答音声を聞きやすいと想定されるためである。一方、操作者からテレビ10が近い場合にTVスピーカ11が音声応答のスピーカとして決定される理由は、TVスピーカ11自身が音声応答を行ったほうが、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいからである。 The algorithm for determining the speaker that performs the voice response is, for example, when the distance between the operator and the television 10 is greater than or equal to a threshold value (that is, the television 10 is far from the operator), the DV speaker 32 or the SP speaker 42 is operated. While the speaker is determined to perform a voice response to the control content instructed by the operator to the TV 10, if the distance between the operator and the TV 10 is less than the threshold value (that is, the TV 10 is close to the operator), the TV speaker 11 is determined to be a speaker that makes a voice response to the control contents instructed by the operator on the television 10. The reason why the DV speaker 32 or the SP speaker 42 is determined as the speaker of the voice response when the television 10 is far from the operator is that the DV speaker 32 or the SP speaker 42 is carried by the operator or the operator's voice is heard. This is because it is assumed that the operator can easily hear the response sound because the operator is in a position closer to the operator than the television 10 because it is assumed that the operator can easily detect the response sound. On the other hand, when the TV 10 is close to the operator, the reason why the TV speaker 11 is determined as the speaker for the voice response is that the TV speaker 11 itself makes the voice response, and the operator himself gives an instruction to which home appliance. This is because it is easy to understand whether the instruction has been accepted.

サーバ装置50において、応答制御部53は、決定部52により決定されたスピーカから音声応答を行うための制御を行う。つまり、応答制御部53は、決定部52により決定されたスピーカがTVスピーカ11の場合は、ネットワーク2及びセットトップボックス20を介してTVスピーカ11を制御して音声応答を行わせる。また、応答制御部53は、決定部52により決定されたスピーカがDVスピーカ32の場合は、ネットワーク2及びセットトップボックス20を介してDVスピーカ32を制御して音声応答を行わせる。また、応答制御部53は、決定部52により決定されたスピーカがSPスピーカ42の場合は、ネットワーク2を介してSPスピーカ42を制御して音声応答を行わせる。 In the server device 50, the response control unit 53 performs control for making a voice response from the speaker determined by the determination unit 52. That is, when the speaker determined by the determination unit 52 is the TV speaker 11, the response control unit 53 controls the TV speaker 11 via the network 2 and the set top box 20 to make a voice response. When the speaker determined by the determining unit 52 is the DV speaker 32, the response control unit 53 controls the DV speaker 32 via the network 2 and the set top box 20 to make a voice response. When the speaker determined by the determination unit 52 is the SP speaker 42, the response control unit 53 controls the SP speaker 42 via the network 2 to make a voice response.

例えば操作者の音声による指示が「6チャンネルに変えて」というものである場合には、これに対する音声応答は「6チャンネルに変えます」というものである。また、例えば操作者の音声による指示が「クイズ番組を検索して」というものである場合には、これに対する音声応答は「クイズ番組を検索しました。○○番組です。チャンネルを変えますか?」というものである。これらの音声応答の内容を決定するアルゴリズムは応答制御部53に記憶されており、応答制御部53は、このアルゴリズムに基づく音声応答のメッセージを、決定されたスピーカから出力させる制御を行う。 For example, when the operator's voice instruction is “change to 6 channels”, the voice response to this is “change to 6 channels”. Also, for example, if the operator's voice instruction is “search for a quiz program”, the voice response to this is “I searched for a quiz program. It is a program. ○○. Change channel? ". The algorithms for determining the contents of these voice responses are stored in the response control unit 53, and the response control unit 53 performs control to output a voice response message based on this algorithm from the determined speaker.

[動作]
次に図6を参照して、本実施形態の動作を説明する。操作者がテレビ10に対して音声によって所望の制御を指示すると、この音声はDVマイク21又はSPマイク41によって収音(つまり入力)される。DVマイク21又はSPマイク41のどちらが音声を収音するかは、例えば操作者が音声デバイス30を音声で起動するとか、スマートホン40のアプリケーションを起動する等の、操作者の明示的な指定によって決められる。収音された音声データは前述した通信経路を介してサーバ装置50に送信され、サーバ装置50の取得部51はこの音声データを取得する(図6のステップS11)。
[motion]
Next, the operation of this embodiment will be described with reference to FIG. When the operator instructs the television 10 to perform desired control by voice, the voice is collected (that is, input) by the DV microphone 21 or the SP microphone 41. Which of the DV microphone 21 and the SP microphone 41 picks up the sound depends on the operator's explicit designation, for example, when the operator activates the voice device 30 by voice or activates the application of the smartphone 40. Can be decided The collected voice data is transmitted to the server device 50 via the communication path described above, and the acquisition unit 51 of the server device 50 acquires this voice data (step S11 in FIG. 6).

取得部51により操作者の音声データが取得されると、決定部52は、TVスピーカ11(つまり第1のスピーカ)、又は、DVスピーカ32若しくはSPスピーカ42(つまり第2のスピーカ)のいずれかを、前述したような方法を用いて、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する(ステップS12)。 When the voice data of the operator is acquired by the acquisition unit 51, the determination unit 52 determines whether the TV speaker 11 (that is, the first speaker) or the DV speaker 32 or the SP speaker 42 (that is, the second speaker). Is determined to be a speaker that performs a voice response to the control content instructed by the operator on the television 10 using the method described above (step S12).

決定部52によりスピーカが決定されると、応答制御部53は、前述したような方法を用いて、そのスピーカから音声応答を行うための制御を行う(ステップS13)。操作者の音声による指示に応じた制御内容は、サーバ装置50又はセットトップボックス20による命令の下でテレビ10によって実行される。 When the determination unit 52 determines the speaker, the response control unit 53 performs control for making a voice response from the speaker using the method described above (step S13). The control content according to the operator's voice instruction is executed by the television 10 under the instruction from the server device 50 or the set top box 20.

以上の実施形態によれば、操作者の指示に対する音声応答を行うスピーカを操作者とテレビとの間の距離に応じて切り替えることができる。つまり、操作者からテレビ10が遠い場合には、テレビ10よりも操作者に近い位置にあると想定される音声デバイス30又はスマートホン40が音声応答を行うことで、操作者が応答音声を聞きやすくなる。一方、操作者からテレビ10が近い場合に、TVスピーカ11自身が音声応答を行うことで、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすくなる。 According to the above-described embodiment, it is possible to switch the speaker that performs the voice response to the instruction of the operator according to the distance between the operator and the television. That is, when the television 10 is far from the operator, the voice device 30 or the smart phone 40, which is assumed to be closer to the operator than the television 10, makes a voice response, so that the operator hears the response voice. It will be easier. On the other hand, when the TV 10 is close to the operator, the TV speaker 11 itself makes a voice response, so that it becomes easy to understand which home appliance the operator himself has instructed and the instruction has been received.

[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[Modification]
The present invention is not limited to the above embodiments. The embodiment described above may be modified as follows. Further, the following two or more modified examples may be combined and implemented.

[変形例1]
上記実施形態において、セットトップボックス20に無線又は有線を介して接続される第2のスピーカとして、セットトップボックス20にBLE等の無線により接続されたDVスピーカ32と、セットトップボックス20にネットワーク2を介して接続されたSPスピーカ42を例示していたが、この例に限らない。セットトップボックス20に無線又は有線を介して接続される第2のスピーカは、例えば、セットトップボックス20にスマートホン40が備えるBLE等の無線を介して接続されたDVスピーカであってもよいし、セットトップボックス20にネットワーク2及びスマートホン40を介して接続されたDVスピーカであってもよい。また、テレビ10に対するリモートコントローラにスピーカ(以下、RCスピーカという)が備えられている場合には、第2のスピーカは、セットトップボックス20にBLE等の無線により接続されたRCスピーカであってもよい。なお、「AとBとが無線又は有線を介して接続される」の意味は、AとBとが通信可能に接続された通信経路において無線部分又は有線部分の少なくともいずれか一方が存在している、という意味である。
[Modification 1]
In the above embodiment, as the second speaker connected to the set top box 20 wirelessly or by wire, a DV speaker 32 wirelessly connected to the set top box 20 such as BLE, and a network 2 connected to the set top box 20. Although the SP speaker 42 connected via the example is illustrated, the present invention is not limited to this example. The second speaker connected to the set top box 20 wirelessly or by wire may be, for example, a DV speaker connected to the set top box 20 wirelessly such as BLE included in the smart phone 40. The DV speaker may be connected to the set top box 20 via the network 2 and the smart phone 40. When the remote controller for the television 10 is equipped with a speaker (hereinafter referred to as an RC speaker), the second speaker may be an RC speaker wirelessly connected to the set top box 20 such as BLE. Good. In addition, the meaning of “A and B are connected via a wireless or wired” means that at least one of a wireless portion and a wired portion exists in a communication path in which A and B are communicably connected. It means that there is.

なお、テレビ10が備える第1のスピーカは、テレビ10の内蔵スピーカであってもよいし、テレビ10に外付けされたスピーカであってもよい。また、スマートホン40に代えて、タブレットやウェアラブルデバイス等の通信装置を用いてもよい。
また、上記実施形態では、操作者の音声がDVマイク21によって収音された場合は、その音声データがサーバ装置50に送信され、サーバ装置50により音声認識がなされ、サーバ装置50の制御下でその音声認識結果に応じた制御内容がテレビ10において実行されていたが、この音声認識はサーバ装置50以外の装置(例えばセットトップボックス20)によって行われてもよい。
The first speaker included in the television 10 may be a built-in speaker of the television 10 or a speaker externally attached to the television 10. Further, instead of the smart phone 40, a communication device such as a tablet or a wearable device may be used.
Further, in the above-described embodiment, when the voice of the operator is picked up by the DV microphone 21, the voice data is transmitted to the server device 50, the server device 50 performs voice recognition, and under the control of the server device 50. Although the control content according to the voice recognition result is executed in the television 10, the voice recognition may be performed by a device other than the server device 50 (for example, the set top box 20).

[変形例2]
上記実施形態において、操作者によるテレビ10に対する指示が音声によるものであったが、操作者の音声以外による指示であってもよい。例えば、操作者によるテキスト入力や、キーやスイッチ等の操作子によるもの、或いはいわゆるジェスチャ入力などの、任意の指示方法を採用し得る。
[Modification 2]
In the above-described embodiment, the instruction to the television 10 by the operator is voice, but the instruction may be other than the voice of the operator. For example, an arbitrary instruction method such as text input by an operator, operation by an operator such as a key or switch, or so-called gesture input can be adopted.

[変形例3]
上記実施形態において、決定部52は、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量と、DVマイク31又はSPマイク41が収音した操作者からの音声の音量とに基づいて、音声応答を行うスピーカを決定していたが、音量に加えてさらに操作者が居る方向を用いてもよい。この場合、DVマイク31又はSPマイク41は指向性マイクであり、DVマイク31又はSPマイク41は収音した音声の音源(つまり操作者)の方向を特定し得る。例えば、テレビ10と、DVマイク31又はSPマイク41との間に操作者がいる場合、音量に基づいて操作者とテレビ10との距離が遠いと推定されたときであっても、DVマイク31又はSPマイク41から操作者への方向がテレビ10に近づく方であるから、決定部52は、TVスピーカ11を音声応答を行うスピーカとして決定する。
[Modification 3]
In the above embodiment, the determination unit 52 sets the volume of the sound from the television 10 collected by the DV microphone 31 or the SP microphone 41 and the volume of the sound from the operator collected by the DV microphone 31 or the SP microphone 41. Although the speaker that performs the voice response is determined based on the above, the direction in which the operator is present may be used in addition to the volume. In this case, the DV microphone 31 or the SP microphone 41 is a directional microphone, and the DV microphone 31 or the SP microphone 41 can specify the direction of the sound source (that is, the operator) of the collected sound. For example, when there is an operator between the television 10 and the DV microphone 31 or the SP microphone 41, even if the distance between the operator and the television 10 is estimated to be long based on the volume, the DV microphone 31 Alternatively, since the direction from the SP microphone 41 to the operator is closer to the television 10, the determination unit 52 determines the TV speaker 11 as a speaker that makes a voice response.

[変形例4]
上記実施形態において、サーバ装置50が決定部52及び応答制御部53を備えていたが、このような構成に限らず、制御システム1に含まれる装置のいずれかが決定部52又は応答制御部53を備えていればよい。例えばサーバ装置50が決定部52を備えてセットトップボックス20が応答制御部53を備えていてもよいし、セットトップボックス20が決定部52又は応答制御部53を備えていてもよい。
[Modification 4]
In the above embodiment, the server device 50 includes the determination unit 52 and the response control unit 53, but the configuration is not limited to this, and any of the devices included in the control system 1 may be the determination unit 52 or the response control unit 53. Should be provided. For example, the server device 50 may include the determination unit 52 and the set top box 20 may include the response control unit 53, or the set top box 20 may include the determination unit 52 or the response control unit 53.

[変形例5]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されない。例えば、操作者の指示がなされた時間帯の属性を用いて音声応答を行うスピーカを決定してもよい。つまり、決定部52は、時間帯に基づいて、音声応答を行うスピーカを決定する。具体的には、操作者がテレビ10の前でじっとテレビ10の放送番組を見ているであろうと推測される時間帯(例えば昼食後や夕食後等の時間帯)である場合は、TVスピーカ11が応答を行うスピーカとして決定される。一方、操作者が場所を移動しながらときどきテレビを見ているであろうと推測される時間帯(例えば家事等の時間帯)である場合は、DVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。このような時間帯に基づくアルゴリズム、つまり時間帯と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 5]
The algorithm for determining the speaker that performs the voice response is not limited to the example in which the volume of the voice of the television 10 and the operator is used as in the embodiment. For example, the speaker that performs the voice response may be determined by using the attribute of the time zone in which the operator's instruction is given. That is, the determination unit 52 determines the speaker that performs the voice response based on the time zone. Specifically, in the case of a time zone in which it is estimated that the operator will be watching the broadcast program of the television 10 in front of the television 10 (for example, after lunch or after dinner), the TV speaker. 11 is determined as a speaker that responds. On the other hand, in the case of a time zone in which it is estimated that the operator may be watching TV from time to time while moving from place to place (for example, a time zone such as housework), the DV speaker 32 or the SP speaker 42 serves as a speaker to respond. It is determined. An algorithm based on such a time zone, that is, the relationship between the time zone and the speaker that makes a voice response is stored by the determination unit 52, and the above determination is made based on this relationship.

[変形例6]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者にとっての騒音に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者に聞こえる騒音の音量に基づいて、音声応答を行うスピーカを決定する。具体的には、DVマイク31又はSPマイク41が収音した騒音が閾値を超える場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、DVマイク31又はSPマイク41が収音した騒音が閾値未満の場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような騒音に基づくアルゴリズム、つまり騒音の大きさと音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 6]
The algorithm for determining the speaker that makes a voice response is not limited to the example of using the volume of the television 10 and the voice of the operator as in the embodiment, and for example, a speaker that makes a voice response based on the noise for the operator may be used. You may decide. That is, the determination unit 52 determines the speaker that performs the voice response based on the volume of the noise heard by the operator. Specifically, when the noise picked up by the DV microphone 31 or the SP microphone 41 exceeds the threshold value, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, is determined as the speaker that responds. It On the other hand, when the noise picked up by the DV microphone 31 or the SP microphone 41 is less than the threshold value, the TV speaker 11 that is easy for the operator to easily understand which home appliance the instruction is given and the instruction is received gives a response. It is decided as the speaker to perform. An algorithm based on such noise, that is, the relationship between the loudness of the noise and the speaker performing the voice response is stored by the determining unit 52, and the above determination is made based on this relationship.

[変形例7]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者以外の人間の有無に基づく方法で、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者以外の人間の有無に基づいて、音声応答を行うスピーカを決定する。具体的には、テレビ10、セットトップボックス20、音声デバイス30又はスマートホン40が、操作者以外の人間の有無を検出する手段を備える。これは例えば人感センサや画像認識による検出等である。操作者以外の人間が操作者と同じ部屋に居る場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、操作者以外の人間が操作者と同じ部屋に居ない場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような操作者以外の人間の有無に基づくアルゴリズム、つまり操作者以外の人間の有無と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 7]
The algorithm for determining the speaker that performs the voice response is not limited to the example of using the volume of the television 10 and the voice of the operator as in the embodiment. For example, the voice response is determined by a method based on the presence or absence of a person other than the operator. You may decide the speaker to perform. That is, the determination unit 52 determines the speaker that performs the voice response based on the presence/absence of a person other than the operator. Specifically, the television 10, the set top box 20, the audio device 30, or the smart phone 40 includes a unit that detects the presence or absence of a person other than the operator. This is, for example, detection by a human sensor or image recognition. When a person other than the operator is in the same room as the operator, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, is determined as the speaker to respond. On the other hand, when a person other than the operator is not present in the same room as the operator, the TV speaker 11 which makes it easy for the operator to easily understand which home appliance has been instructed and which instruction has been received responds. Is decided as. Such an algorithm based on the presence/absence of a person other than the operator, that is, the relationship between the presence/absence of a person other than the operator and the speaker performing the voice response is stored by the determination unit 52, and the above determination is made based on this relationship. ..

[変形例8]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者によって指示された制御内容に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者から指示された制御内容に基づいて、音声応答を行うスピーカを決定する。具体的には、操作者によって指示された制御内容が、その操作者以外の他人と共有したくない制御内容(例えば個人的な理由に基づく制御内容)である場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、操作者によって指示された制御内容が、その操作者以外の他人と共有してもよい制御内容(例えば個人的な理由ではない理由に基づく制御内容)である場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような制御内容に基づくアルゴリズム、つまり操作者により指示された制御内容と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 8]
The algorithm for determining the speaker that performs the voice response is not limited to the example of using the volume of the television 10 and the voice of the operator as in the embodiment. For example, the voice response is based on the control content instructed by the operator. You may decide the speaker to perform. That is, the determination unit 52 determines the speaker that performs the voice response, based on the control content instructed by the operator. Specifically, if the control content instructed by the operator is the control content that is not desired to be shared with others other than the operator (for example, the control content based on personal reasons), it is generally located near the operator. The DV speaker 32 and the SP speaker 42, which are assumed to be present, are determined as the speaker that responds. On the other hand, if the control content instructed by the operator is control content that may be shared with others other than the operator (for example, control content based on a reason other than personal reasons), the operator himself The TV speaker 11 that gives an instruction to the home electric appliance and makes it easy to understand whether the instruction has been accepted is determined as the speaker to make a response. An algorithm based on such control content, that is, the relationship between the control content instructed by the operator and the speaker that makes a voice response is stored by the determining unit 52, and the above determination is made based on this relationship.

[変形例9]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、テレビ10の放送番組に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、テレビ10により出力されている番組の内容に基づいて、音声応答を行うスピーカを決定する。テレビ10により出力されている番組の内容をその操作者以外の他人に知られたくない場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、番組の内容をその操作者以外の他人に知られてもよい場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような番組の内容に基づくアルゴリズム、つまり番組の内容と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 9]
The algorithm for determining the speaker that makes a voice response is not limited to the example of using the volume of the voice of the television 10 and the operator as in the embodiment. For example, a speaker that makes a voice response based on the broadcast program of the television 10 is selected. You may decide. That is, the determination unit 52 determines the speaker to which the audio response is to be made, based on the content of the program output by the television 10. When the contents of the program output by the television 10 are not to be known to others other than the operator, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, is determined as the speaker to respond. To be done. On the other hand, when the contents of the program may be known to others other than the operator, the TV speaker 11 which is easy for the operator to understand which home appliance the instruction is given and the instruction has been accepted gives a response. It is decided as the speaker to perform. An algorithm based on the content of such a program, that is, the relationship between the content of the program and the speaker that makes a voice response is stored by the determination unit 52, and the above determination is made based on this relationship.

[変形例10]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者の発話速度に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者による音声発話の速度に基づいて、音声応答を行うスピーカを決定する。具体的には、DVマイク31又はSPマイク41が収音した操作者の発話速度が閾値を超える場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。発話速度が閾値を超える場合は、例えば操作者が家事等の別の作業を行っていて忙しいと想定されるから、操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答するほうが望ましい。一方、DVマイク31又はSPマイク41が収音した操作者の発話速度が閾値未満の場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。発話速度が閾値未満の場合は、例えば操作者がリラックスしてテレビ10を視聴していると想定されるから、操作者が視聴しているテレビ10のTVスピーカ11が応答を行うほうが望ましい。このような発話速度に基づくアルゴリズム、つまり発話速度と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 10]
The algorithm for determining the speaker that makes a voice response is not limited to the example of using the volume of the television 10 and the voice of the operator as in the embodiment. For example, a speaker that makes a voice response based on the speaking speed of the operator is selected. You may decide. That is, the determination unit 52 determines the speaker that performs the voice response, based on the speed of the voice utterance by the operator. Specifically, when the speech speed of the operator picked up by the DV microphone 31 or the SP microphone 41 exceeds the threshold, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, responds. Determined as a speaker. When the speech rate exceeds the threshold, it is assumed that the operator is busy doing other work such as housework, and therefore the DV speaker 32 and the SP speaker 42 supposed to be near the operator responds. Is better. On the other hand, when the speech speed of the operator picked up by the DV microphone 31 or the SP microphone 41 is less than the threshold value, it is easy to understand which home appliance the operator himself has instructed and the instruction has been accepted. 11 is determined as a speaker that responds. When the speech rate is less than the threshold value, for example, it is assumed that the operator is relaxing and watching the TV 10. Therefore, it is preferable that the TV speaker 11 of the TV 10 that the operator is watching respond. An algorithm based on such a speech rate, that is, the relationship between the speech rate and the speaker that makes a voice response is stored by the determination unit 52, and the above determination is made based on this relationship.

[そのほかの変形例]
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
[Other modifications]
The block diagram used in the description of the above embodiments shows blocks of functional units. These functional blocks (components) are realized by an arbitrary combination of hardware and/or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be implemented by one device that is physically and/or logically coupled, or directly and/or indirectly by two or more devices that are physically and/or logically separated. Physically (for example, by wire and/or wirelessly), and may be realized by a plurality of these devices.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect/embodiment described in this specification is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), It may be applied to Bluetooth (registered trademark), a system using other appropriate systems, and/or a next-generation system extended based on these.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
As long as there is no contradiction, the order of the processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this specification may be changed. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.
The aspects/embodiments described in the present specification may be used alone, in combination, or may be switched according to execution. Further, the notification of the predetermined information (for example, the notification of “being X”) is not limited to the explicit notification, and is performed implicitly (for example, the notification of the predetermined information is not performed). Good.

本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used herein, the terms “system” and “network” are used interchangeably.

本明細書で説明した情報又はパラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The information, parameters, and the like described in this specification may be represented by an absolute value, a relative value from a predetermined value, or may be represented by another corresponding information. The names used for the above parameters are not limiting in any way. Moreover, the mathematical formulas and the like using these parameters may differ from those explicitly disclosed herein.

本明細書で使用する「判定(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判定」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining) した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、受信(receiving) (例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判定」「決定」したとみなす事を含み得る。つまり、「判定」「決定」は、何らかの動作を「判定」「決定」したとみなす事を含み得る。 The terms "determining" and "determining" as used herein may encompass a wide variety of actions. “Judgment” and “decision” are, for example, judgment, calculation, computing, processing, deriving, investigating, looking up (eg, table). , Searching in a database or another data structure), and ascertaining what is considered to be “judgment” or “decision”. In addition, "determination" and "decision" include receiving (eg, receiving information), transmitting (eg, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in a memory) may be regarded as “judgment” and “decision”. In addition, "judgment" and "decision" mean that things such as resolving, selecting, choosing, establishing, establishing, and comparing are regarded as "judging" and "deciding". May be included. That is, “determination” and “decision” may include considering some action as “determination” and “decision”.

本発明は、制御システム1又はサーバ装置50において行われる処理のステップを備える情報処理方法として提供されてもよい。また、本発明は、サーバ装置50において実行されるプログラムとして提供されてもよい。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。 The present invention may be provided as an information processing method including steps of processing performed in the control system 1 or the server device 50. Further, the present invention may be provided as a program executed by the server device 50. Such a program may be provided in the form of being recorded in a recording medium such as an optical disk, or may be provided in such a form that it is downloaded to a computer via a network such as the Internet and the program is installed for use. It is possible.

ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may be sent and received via a transmission medium. For example, the software may use a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and/or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wireline and/or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description include voltage, current, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any of these. May be represented by a combination of

本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described in the present specification and/or the terms necessary for understanding the present specification may be replaced with the terms having the same or similar meanings.

本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1要素が第2要素に先行しなければならないことを意味しない。 As used herein, any reference to elements using the designations "first," "second," etc. does not generally limit the amount or order of those elements. These designations may be used herein as a convenient way of distinguishing between two or more elements. Thus, references to the first and second elements do not mean that only two elements may be employed there or that the first element must precede the second element in any way.

「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as the terms "including", "comprising", and variations thereof are used herein or in the claims, these terms are inclusive, as well as the term "comprising." Intended to be objective. Furthermore, the term "or" as used in the specification or claims is not intended to be an exclusive OR.

本開示の全体において、例えば、英語でのa、an、及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout the disclosure, where translations add articles, such as a, an, and the in English, unless these articles clearly indicate otherwise, Multiple items shall be included.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び決定態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and determination modes without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description of the present specification is for the purpose of exemplifying explanation, and does not have any restrictive meaning to the present invention.

1…制御システム、2…ネットワーク、10…テレビジョン受信機、11…TVスピーカ、20…セットトップボックス、30…音声デバイス、31…DVマイク、32…DVスピーカ、40…スマートホン、41…SPマイク、42…SPスピーカ、4001…プロセッサ、4002…メモリ、4003…ストレージ、4004…スマートホン、4005…入力装置、4006…出力装置、50…サーバ装置、51…取得部、52…決定部、53…応答制御部、5001…プロセッサ、5002…メモリ、5003…ストレージ、5004…通信装置、5005…入力装置、5006…出力装置。 1... Control system, 2... Network, 10... Television receiver, 11... TV speaker, 20... Set top box, 30... Audio device, 31... DV microphone, 32... DV speaker, 40... Smartphone, 41... SP Microphone, 42... SP speaker, 4001... Processor, 4002... Memory, 4003... Storage, 4004... Smartphone, 4005... Input device, 4006... Output device, 50... Server device, 51... Acquisition unit, 52... Determination unit, 53 ... response control unit, 5001... processor, 5002... memory, 5003... storage, 5004... communication device, 5005... input device, 5006... output device.

Claims (9)

テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、
前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制御部と
を備えることを特徴とする制御システム。
A first speaker included in the television receiver or a wireless or wired connection to a control device that converts a broadcast signal into a signal that can be viewed by the television receiver and controls the television receiver. A determination unit that determines any one of the second speakers as a speaker that performs a voice response to the control content instructed by the operator to the television receiver;
A response control unit that performs control for performing the voice response from the speaker determined by the determination unit.
前記決定部は、前記操作者と前記テレビジョン受信機との距離に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines a speaker that performs the voice response based on a distance between the operator and the television receiver.
前記決定部は、前記操作者からの音声の音量と前記テレビジョン受信機からの音声の音量に基づいて、前記操作者と前記テレビジョン受信機との距離を推定する
ことを特徴とする請求項2記載の制御システム。
The deciding unit estimates the distance between the operator and the television receiver based on the volume of the voice from the operator and the volume of the voice from the television receiver. 2. The control system described in 2.
前記決定部は、操作者に聞こえる騒音の音量に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines a speaker that performs the voice response based on a volume of noise heard by an operator.
前記決定部は、時間帯に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines a speaker that performs the voice response based on a time zone.
前記決定部は、操作者以外の人間の有無に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines a speaker that performs the voice response based on the presence or absence of a person other than the operator.
前記決定部は、前記操作者から指示された制御内容に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines a speaker that performs the voice response based on a control content instructed by the operator.
前記決定部は、前記テレビジョン受信機により出力されている番組の内容に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines the speaker that performs the audio response based on the content of the program output by the television receiver.
前記決定部は、操作者による音声発話の速度に基づいて、前記音声応答を行うスピーカを決定する
ことを特徴とする請求項1記載の制御システム。
The control system according to claim 1, wherein the determination unit determines a speaker to perform the voice response based on a speed of voice utterance by the operator.
JP2019022427A 2019-02-12 2019-02-12 control system Active JP7181116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022427A JP7181116B2 (en) 2019-02-12 2019-02-12 control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022427A JP7181116B2 (en) 2019-02-12 2019-02-12 control system

Publications (2)

Publication Number Publication Date
JP2020129776A true JP2020129776A (en) 2020-08-27
JP7181116B2 JP7181116B2 (en) 2022-11-30

Family

ID=72175024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022427A Active JP7181116B2 (en) 2019-02-12 2019-02-12 control system

Country Status (1)

Country Link
JP (1) JP7181116B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177376A (en) * 1993-12-17 1995-07-14 Hitachi Ltd Television receiver, remote controller and their combination
JP2002319084A (en) * 2001-04-19 2002-10-31 Omega Techno Modeling:Kk Communication notification system for mutual and in neighborhood
WO2007072821A1 (en) * 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. Device linkage apparatus and device linkage method
WO2015133022A1 (en) * 2014-03-03 2015-09-11 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017203967A (en) * 2016-05-13 2017-11-16 シャープ株式会社 Voice output control device, electronic apparatus, and method for controlling voice output control device
US20180322870A1 (en) * 2017-01-16 2018-11-08 Kt Corporation Performing tasks and returning audio and visual feedbacks based on voice command

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177376A (en) * 1993-12-17 1995-07-14 Hitachi Ltd Television receiver, remote controller and their combination
JP2002319084A (en) * 2001-04-19 2002-10-31 Omega Techno Modeling:Kk Communication notification system for mutual and in neighborhood
WO2007072821A1 (en) * 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. Device linkage apparatus and device linkage method
WO2015133022A1 (en) * 2014-03-03 2015-09-11 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017203967A (en) * 2016-05-13 2017-11-16 シャープ株式会社 Voice output control device, electronic apparatus, and method for controlling voice output control device
US20180322870A1 (en) * 2017-01-16 2018-11-08 Kt Corporation Performing tasks and returning audio and visual feedbacks based on voice command

Also Published As

Publication number Publication date
JP7181116B2 (en) 2022-11-30

Similar Documents

Publication Publication Date Title
AU2013237690B2 (en) Method and apparatus for performing preset operation mode using voice recognition
WO2019233212A1 (en) Text identification method and device, mobile terminal, and storage medium
WO2019128639A1 (en) Method for detecting audio signal beat points of bass drum, and terminal
US20140282044A1 (en) Methods, systems, and media for providing a remote control interface
CN109302528B (en) Photographing method, mobile terminal and computer readable storage medium
CN111966804A (en) Expression processing method, terminal and storage medium
WO2019223484A1 (en) Information display method and apparatus, and mobile terminal and storage medium
CN108810262B (en) Application configuration method, terminal and computer readable storage medium
JP7181116B2 (en) control system
EP2908272A1 (en) Method and apparatus for creating a communication group
JP2019032387A (en) Controller, program and control method
US20160150355A1 (en) Method of controlling operation mode and electronic device therefor
JP7003228B2 (en) Dialogue server
JPWO2019207909A1 (en) Dialogue server
EP3493200B1 (en) Voice-controllable device and method of voice control
JP7429194B2 (en) Dialogue device and dialogue program
CN113805837A (en) Audio processing method, mobile terminal and storage medium
JP6934825B2 (en) Communication control system
JP6745402B2 (en) Question estimator
JP7429193B2 (en) Dialogue device and dialogue program
WO2019228106A1 (en) Press area optimization method and device, mobile terminal and storage medium
US20140337739A1 (en) Method and Mobile Device for Activating Voice Intercom Function of Instant Messaging Application Software
JP2020071758A (en) Control system and control method
WO2019166004A1 (en) Smart terminal and file management method thereof, and apparatus having storage function
JPWO2019216053A1 (en) Dialogue device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221117

R150 Certificate of patent or registration of utility model

Ref document number: 7181116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150