JP7181116B2 - control system - Google Patents

control system Download PDF

Info

Publication number
JP7181116B2
JP7181116B2 JP2019022427A JP2019022427A JP7181116B2 JP 7181116 B2 JP7181116 B2 JP 7181116B2 JP 2019022427 A JP2019022427 A JP 2019022427A JP 2019022427 A JP2019022427 A JP 2019022427A JP 7181116 B2 JP7181116 B2 JP 7181116B2
Authority
JP
Japan
Prior art keywords
speaker
operator
television
voice
television receiver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019022427A
Other languages
Japanese (ja)
Other versions
JP2020129776A (en
Inventor
喬 鈴木
幸一 中川
知敬 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2019022427A priority Critical patent/JP7181116B2/en
Publication of JP2020129776A publication Critical patent/JP2020129776A/en
Application granted granted Critical
Publication of JP7181116B2 publication Critical patent/JP7181116B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、操作者の指示に対して音声で応答するための技術に関する。 TECHNICAL FIELD The present invention relates to a technique for responding to an operator's instruction by voice.

音声認識技術の進歩により、操作者が機器に対して音声で指示すると、その指示に対して音声で応答するとともにその指示に応じた処理を行う仕組みが普及しつつある。例えば特許文献1には、発話による音声コマンドを受け取ったロボットがその音声コマンドから特定した操作命令を家電に送信し、家電がその操作命令に従って稼働できたか否かを音声で出力することが開示されている。 With the progress of voice recognition technology, a mechanism is becoming popular in which, when an operator gives an instruction to a device by voice, the apparatus responds to the instruction by voice and performs processing according to the instruction. For example, Patent Literature 1 discloses that a robot that receives a voice command by utterance transmits an operation instruction specified from the voice command to a home appliance, and outputs by voice whether the home appliance was able to operate according to the operation instruction. ing.

特開2016-76799号公報JP 2016-76799 A

音声による制御の対象としてテレビジョン受信機を想定した場合、テレビジョン受信機には各種の音声入出力装置が接続可能であるため、操作者の指示に対して音声で応答するスピーカの候補が複数あり得る。 Assuming a television receiver as the object of voice control, various voice input/output devices can be connected to the TV receiver, so there are multiple candidate speakers that respond to the operator's instructions with voice. could be.

そこで、本発明は、テレビジョン受信機に対する操作者の指示に音声応答を行うスピーカを切り替えられる仕組みを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a mechanism for switching a speaker for voice response to an operator's instruction to a television receiver.

上記課題を達成するために、本発明は、テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制御部とを備え、前記決定部は、操作者以外の人間の有無に基づいて、前記音声応答を行うスピーカを決定することを特徴とする制御システムを提供する。 In order to achieve the above object, the present invention converts a first speaker provided in a television receiver or a broadcast signal into a signal viewable by the television receiver to control the television receiver. a determining unit that determines one of the second speakers connected wirelessly or via a wire to the control device as a speaker that performs voice response to control content instructed by an operator to the television receiver; a response control unit that performs control for performing the voice response from the speaker determined by the unit, wherein the determination unit determines the speaker that performs the voice response based on the presence or absence of a person other than the operator. To provide a control system characterized by:

上記課題を達成するために、本発明は、テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、 前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制御部とを備え、前記決定部は、前記操作者から指示された制御内容に基づいて、前記音声応答を行うスピーカを決定することを特徴とする制御システムを提供する。In order to achieve the above object, the present invention converts a first speaker provided in a television receiver or a broadcast signal into a signal viewable by the television receiver to control the television receiver. a determination unit that determines one of the second speakers connected to the control device via a wire or wirelessly as a speaker that performs voice response to the control content instructed by the operator to the television receiver; a response control unit that performs control for performing the voice response from the speaker determined by the unit, wherein the determination unit determines the speaker for performing the voice response based on the control content instructed by the operator. To provide a control system characterized by:

上記課題を達成するために、本発明は、テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制御部とを備え、前記決定部は、前記テレビジョン受信機により出力されている番組の内容に基づいて、前記音声応答を行うスピーカを決定することを特徴とする制御システムを提供する。In order to achieve the above object, the present invention converts a first speaker provided in a television receiver or a broadcast signal into a signal viewable by the television receiver to control the television receiver. a determining unit that determines one of the second speakers connected wirelessly or via a wire to the control device as a speaker that performs voice response to control content instructed by an operator to the television receiver; a response control unit that performs control for performing the voice response from the speaker determined by the unit, wherein the determination unit performs the voice response based on the content of the program being output by the television receiver. A control system is provided characterized by determining which loudspeaker to perform.

上記課題を達成するために、本発明は、テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制御部とを備え、前記決定部は、操作者による音声発話の速度に基づいて、前記音声応答を行うスピーカを決定することを特徴とする制御システムを提供する。In order to achieve the above object, the present invention converts a first speaker provided in a television receiver or a broadcast signal into a signal viewable by the television receiver to control the television receiver. a determining unit that determines one of the second speakers connected wirelessly or via a wire to the control device as a speaker that performs voice response to control content instructed by an operator to the television receiver; a response control unit that performs control for performing the voice response from the speaker determined by the unit, wherein the determination unit determines the speaker for performing the voice response based on the speed of voice utterance by the operator. To provide a control system characterized by:

本発明によれば、操作者の指示に対する音声応答を行うスピーカを切り替えることが可能となる。 According to the present invention, it is possible to switch the speaker that performs voice response to the operator's instruction.

本発明の一実施形態に係る制御システムの構成を例示する図である。It is a figure which illustrates the structure of the control system which concerns on one Embodiment of this invention. サーバ装置のハードウェア構成を例示するブロック図である。It is a block diagram which illustrates the hardware constitutions of a server apparatus. スマートホンのハードウェア構成を例示するブロック図である。2 is a block diagram illustrating the hardware configuration of a smart phone; FIG. 制御システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a control system. テレビジョン受信機と操作者との距離の例を示す図である。FIG. 4 is a diagram showing an example of distances between a television receiver and an operator; サーバ装置による動作を例示するフローチャートである。4 is a flow chart illustrating an operation by a server device;

[構成]
図1は、本実施形態の制御システム1の構成を例示する図である。制御システム1は、テレビジョン受信機10(以下、テレビ10という)と、セットトップボックス20と、音声デバイス30と、スマートホン40と、サーバ装置50と、これらのセットトップボックス20、スマートホン40及びサーバ装置50を通信可能に接続するネットワーク2とを備える。セットトップボックス20は、図示せぬチューナ等を内蔵しており、放送信号をテレビ10において視聴可能な信号に変換してそのテレビ10を制御する制御装置である。音声デバイス30は、音声の入出力を主な機能とした装置である。スマートホン40は操作者が携帯するのに適した通信装置である。ネットワーク2は、例えばWifi(登録商標)やLTE(Long Term Evolution)等の任意の通信規格の無線又は有線の通信網であり、図示せぬ無線基地局やその上位装置を含んでいる。テレビ10とセットトップボックス20は、例えばHDMI(High-Definition Multimedia Interface)(登録商標)により接続されている。セットトップボックス20と音声デバイス30は、例えばBLE(Bluetooth(登録商標) Low Energy)により接続されている。スマートホン40とセットトップボックス20は、ネットワーク2により接続されている。なお、図1には、テレビジョン受信機10と、セットトップボックス20と、音声デバイス30と、スマートホン40と、サーバ装置50をそれぞれ1つのみ示しているが、これらは複数であってもよい。
[Constitution]
FIG. 1 is a diagram illustrating the configuration of a control system 1 of this embodiment. The control system 1 includes a television receiver 10 (hereinafter referred to as a television 10), a set-top box 20, an audio device 30, a smartphone 40, a server device 50, and these set-top box 20 and smartphone 40. and a network 2 that communicably connects the server device 50 . The set-top box 20 incorporates a tuner (not shown) and the like, and is a control device that converts broadcast signals into signals viewable on the television 10 and controls the television 10 . The audio device 30 is a device whose main function is input/output of audio. The smart phone 40 is a communication device suitable for being carried by an operator. The network 2 is a wireless or wired communication network of any communication standard such as Wifi (registered trademark) or LTE (Long Term Evolution), and includes a wireless base station (not shown) and its host device. The television 10 and the set-top box 20 are connected by, for example, HDMI (High-Definition Multimedia Interface) (registered trademark). The set-top box 20 and the audio device 30 are connected by, for example, BLE (Bluetooth (registered trademark) Low Energy). The smart phone 40 and the set top box 20 are connected by the network 2 . FIG. 1 shows only one television receiver 10, one set-top box 20, one audio device 30, one smartphone 40, and one server device 50; good.

テレビ10は、図示せぬディスプレイやチューナ等のほか、スピーカ11(以下、TVスピーカ11という)を備えている。音声デバイス30は、図示せぬBLE通信ユニット等のほか、マイク21(以下、DVマイク21という)と、スピーカ22(以下、DVスピーカ22という)とを備えている。スマートホン40の構成は後に詳述するが、このスマートホン40は、マイク41(以下、SPマイク41という)と、スピーカ42(以下、SPスピーカ42という)とを備えている。TVスピーカ11は、テレビ10が備える第1のスピーカである。DVスピーカ22及びSPスピーカ42はそれぞれ、セットトップボックス20に無線又は有線を介して接続される第2のスピーカである。 The television 10 includes a speaker 11 (hereinafter referred to as a TV speaker 11) in addition to a display and a tuner (not shown). The audio device 30 includes a microphone 21 (hereinafter referred to as DV microphone 21) and a speaker 22 (hereinafter referred to as DV speaker 22) in addition to a BLE communication unit (not shown). The configuration of the smart phone 40 will be detailed later, but the smart phone 40 includes a microphone 41 (hereinafter referred to as SP microphone 41) and a speaker 42 (hereinafter referred to as SP speaker 42). The TV speaker 11 is a first speaker that the television 10 has. Each of the DV speaker 22 and the SP speaker 42 is a second speaker connected to the set top box 20 wirelessly or via a wire.

操作者がテレビ10に対して音声によって所望の制御を指示すると、この音声はDVマイク21又はSPマイク41によって収音される。この音声は既知の音声認識技術により解析され、操作者が指示した制御内容がテレビ10において実行される。操作者の音声がDVマイク21によって収音された場合は、その音声データが音声デバイス30からセットトップボックス20を介してネットワーク2経由でサーバ装置50に送信され、サーバ装置50により音声認識がなされ、サーバ装置50の制御下でその音声認識結果に応じた制御内容がテレビ10において実行される。一方、操作者の音声がSPマイク41によって収音された場合は、その音声データがスマートホン40からネットワーク2経由でサーバ装置50に送信され、サーバ装置50により音声認識がなされ、サーバ装置50の制御下でその音声認識結果に応じた制御内容がテレビ10において実行される。 When the operator gives a desired control instruction to the television 10 by voice, this voice is picked up by the DV microphone 21 or the SP microphone 41 . This voice is analyzed by a known voice recognition technique, and the contents of control instructed by the operator are executed on the television 10 . When the operator's voice is picked up by the DV microphone 21, the voice data is transmitted from the voice device 30 through the set-top box 20 to the server device 50 via the network 2, and the server device 50 recognizes the voice. , under the control of the server device 50, the control content corresponding to the speech recognition result is executed in the television 10. FIG. On the other hand, when the operator's voice is picked up by the SP microphone 41, the voice data is transmitted from the smart phone 40 to the server device 50 via the network 2, and the server device 50 recognizes the voice. Under control, the television 10 executes the control content according to the speech recognition result.

このような操作者による指示に対して、TVスピーカ11(つまり第1のスピーカ)又はDVスピーカ22若しくはSPスピーカ42(つまり第2のスピーカ)から音声による応答がなされるようになっている。この音声による応答とは、例えば操作者による指示を受け付けた旨のメッセージや、操作者による指示に対する回答や質問等のメッセージである。 In response to such instructions from the operator, the TV speaker 11 (that is, the first speaker), the DV speaker 22, or the SP speaker 42 (that is, the second speaker) responds by voice. This voice response is, for example, a message indicating that an instruction from the operator has been accepted, or a message such as an answer or question to the operator's instruction.

サーバ装置50は、これらの第1のスピーカ又は第2のスピーカのうちいずれかを、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する。このスピーカの決定は様々な条件に基づいてなされるようになっているが、本実施形態では、操作者とテレビ10との距離に基づいてこの決定がなされる例を説明する。 The server apparatus 50 determines either the first speaker or the second speaker as a speaker that performs voice response to the control content instructed by the operator to the television 10 . Although this speaker determination is made based on various conditions, in this embodiment, an example in which this determination is made based on the distance between the operator and the television 10 will be described.

図2は、サーバ装置50のハードウェア構成を示す図である。サーバ装置50は、物理的には、プロセッサ5001、メモリ5002、ストレージ5003、通信装置5004、入力装置5005、出力装置5006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。サーバ装置50のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 FIG. 2 is a diagram showing the hardware configuration of the server device 50. As shown in FIG. The server device 50 is physically configured as a computer device including a processor 5001, a memory 5002, a storage 5003, a communication device 5004, an input device 5005, an output device 5006, and a bus connecting them. Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the server device 50 may be configured to include one or more of each device shown in the figure, or may be configured without some of the devices.

サーバ装置50における各機能は、プロセッサ5001、メモリ5002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ5001が演算を行い、通信装置5004による通信を制御したり、メモリ5002及びストレージ5003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function in the server device 50 is performed by causing the processor 5001 to perform calculations, controlling communication by the communication device 5004, and controlling the and by controlling at least one of reading and writing of data in the storage 5003 .

プロセッサ5001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ5001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ5001によって実現されてもよい。 The processor 5001, for example, operates an operating system and controls the entire computer. The processor 5001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. Also, for example, a baseband signal processing unit, a call processing unit, and the like may be implemented by the processor 5001 .

プロセッサ5001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ5003及び通信装置5004の少なくとも一方からメモリ5002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。サーバ装置50の機能ブロックは、メモリ5002に格納され、プロセッサ5001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ5001によって実行されてもよいが、2以上のプロセッサ5001により同時又は逐次に実行されてもよい。プロセッサ5001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワーク2からサーバ装置50に送信されてもよい。 The processor 5001 reads programs (program codes), software modules, data, etc. from at least one of the storage 5003 and the communication device 5004 to the memory 5002, and executes various processes according to them. As the program, a program that causes a computer to execute at least part of the operations described below is used. The functional blocks of server device 50 may be implemented by a control program stored in memory 5002 and running on processor 5001 . Various types of processing may be executed by one processor 5001, but may also be executed by two or more processors 5001 simultaneously or sequentially. Processor 5001 may be implemented by one or more chips. Note that the program may be transmitted from the network 2 to the server device 50 via an electric communication line.

メモリ5002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ5002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ5002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 5002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may be The memory 5002 may also be called a register, cache, main memory (main storage device), or the like. The memory 5002 can store executable programs (program code), software modules, etc. for performing methods according to the present invention.

ストレージ5003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ5003は、補助記憶装置と呼ばれてもよい。 The storage 5003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (e.g., a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 5003 may be called an auxiliary storage device.

通信装置5004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 5004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also called a network device, network controller, network card, communication module, or the like.

入力装置5005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、スイッチなど)である。出力装置5006は、外部への出力を実施する出力デバイス(例えば、ディスプレイなど)である。なお、入力装置5005及び出力装置5006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 5005 is an input device (for example, keyboard, mouse, switch, etc.) that receives input from the outside. The output device 5006 is an output device (such as a display) that outputs to the outside. Note that the input device 5005 and the output device 5006 may be integrated (for example, a touch panel).

プロセッサ5001、メモリ5002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Each device such as processor 5001 and memory 5002 is connected by a bus for communicating information. The bus may be configured using a single bus, or may be configured using different buses between devices.

サーバ装置50は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ5001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 The server device 50 includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). Alternatively, the hardware may implement part or all of each functional block. For example, processor 5001 may be implemented using at least one of these pieces of hardware.

図3は、スマートホン40のハードウェア構成を示す図である。スマートホン40は、表示機能を備えており、本発明における表示装置として機能する。スマートホン40は、物理的には、プロセッサ4001、メモリ4002、ストレージ4003、スマートホン4004、入力装置4005、出力装置4006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。プロセッサ4001、メモリ4002、ストレージ4003、入力装置4005、出力装置4006は、サーバ装置50が備えるプロセッサ5001、メモリ5002、ストレージ5003、入力装置5005、出力装置5006と同様の装置群である。入力装置5005は、前述したSPマイク41を含む。出力装置5006は、前述したSPスピーカ42を含む。 FIG. 3 is a diagram showing the hardware configuration of the smart phone 40. As shown in FIG. The smart phone 40 has a display function and functions as a display device in the present invention. The smart phone 40 is physically configured as a computer device including a processor 4001, a memory 4002, a storage 4003, a smart phone 4004, an input device 4005, an output device 4006, and a bus connecting them. The processor 4001 , memory 4002 , storage 4003 , input device 4005 , and output device 4006 are the same device group as the processor 5001 , memory 5002 , storage 5003 , input device 5005 , and output device 5006 included in the server device 50 . The input device 5005 includes the SP microphone 41 described above. The output device 5006 includes the SP speaker 42 described above.

なお、スマートホン4004は無線通信に適した構成、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどの構成を含んでいてもよい。例えば、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、スマートホン4004によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。 Note that the smart phone 4004 has a configuration suitable for wireless communication, for example, a high-frequency switch, a duplexer, and a duplexer to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). , filters, and frequency synthesizers. For example, the transmitting/receiving antenna, the amplifier section, the transmitting/receiving section, the transmission path interface, etc. may be implemented by the smart phone 4004 . The transceiver may be physically or logically separate implementations for the transmitter and receiver.

図4は、制御システム1の機能構成の一例を示すブロック図である。サーバ装置50において、取得部51は、音声デバイス30のDVマイク31に入力された操作者の音声データをセットトップボックス20及びネットワーク2経由で取得する。また、取得部51は、スマートホン40のSPマイク41に入力された操作者の音声データをネットワーク2経由で取得する。 FIG. 4 is a block diagram showing an example of the functional configuration of the control system 1. As shown in FIG. In the server device 50 , the acquisition unit 51 acquires the operator's voice data input to the DV microphone 31 of the audio device 30 via the set-top box 20 and the network 2 . The acquisition unit 51 also acquires the voice data of the operator input to the SP microphone 41 of the smart phone 40 via the network 2 .

サーバ装置50において、決定部52は、取得部51により操作者の音声データが取得された場合、TVスピーカ11(つまり第1のスピーカ)、又は、DVスピーカ32若しくはSPスピーカ42(つまり第2のスピーカ)のいずれかを、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する。本実施形態において、決定部52は、音声応答を行うスピーカを操作者とテレビ10との距離に基づいて決定するためのアルゴリズムを記憶している。このアルゴリズムは、操作者とテレビ10との距離を求めるアルゴリズムと、その距離に基づいて音声応答を行うスピーカを決定するアルゴリズムとを含む。 In the server device 50, when the voice data of the operator is acquired by the acquisition unit 51, the determination unit 52 selects the TV speaker 11 (that is, the first speaker), or the DV speaker 32 or the SP speaker 42 (that is, the second speaker). speaker) is determined to be the speaker that performs voice response to the control contents instructed by the operator to the television 10 . In this embodiment, the determination unit 52 stores an algorithm for determining the speaker that performs voice response based on the distance between the operator and the television 10 . This algorithm includes an algorithm for determining the distance between the operator and the television 10, and an algorithm for determining the speaker that performs the voice response based on the distance.

操作者とテレビ10との距離を求めるアルゴリズムは、例えば、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量と、DVマイク31又はSPマイク41が収音した操作者からの音声の音量とに基づいて、操作者とテレビ10との距離を推定するというものである。具体的には、決定部52は、テレビ10からの音声の音量と操作者からの音声の音量としてそれぞれ標準的な音量(標準音量)を予め決めておき、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量を標準音量で除算した値と、DVマイク31又はSPマイク41が収音した操作者からの音声の音量を標準音量で除算した値との比較に基づいて、操作者とテレビ10との距離を推定する。テレビ10からの音声の標準音量は、例えばテレビ10から出力される音量毎に決められた音量であってもよい。つまり、テレビ10から出力するようユーザ等により指定された音量は特定し得るから、決定部52は、その音量に応じて標準音量を決めてもよい。 The algorithm for obtaining the distance between the operator and the television 10 is, for example, the volume of the sound from the television 10 picked up by the DV microphone 31 or the SP microphone 41 and the volume of the sound from the operator picked up by the DV microphone 31 or the SP microphone 41. The distance between the operator and the television 10 is estimated based on the sound volume. Specifically, the determining unit 52 predetermines the standard volume (standard volume) for the volume of the voice from the television 10 and the volume of the voice from the operator, respectively, and the DV microphone 31 or the SP microphone 41 receives the volume. Based on a comparison between a value obtained by dividing the volume of the sound from the TV 10 that sounded by the standard volume and a value obtained by dividing the volume of the voice from the operator picked up by the DV microphone 31 or the SP microphone 41 by the standard volume, A distance between the operator and the television 10 is estimated. The standard volume of sound from the television 10 may be a volume determined for each volume output from the television 10, for example. That is, since the volume specified by the user or the like to be output from the television 10 can be specified, the determination unit 52 may determine the standard volume according to the volume.

図5の例で説明すると、同図(A)に例示するように、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量を標準音量で除算した値が、DVマイク31又はSPマイク41が収音した操作者からの音声の音量を標準音量で除算した値に対して小さいと評価された場合は、操作者とテレビ10との距離が遠いと推定される。また、同図(B)に例示するように、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量を標準音量で除算した値が、DVマイク31又はSPマイク41が収音した操作者からの音声の音量を標準音量で除算した値に対して大きいと評価された場合は、操作者とテレビ10との距離が近いと推定される。 In the example of FIG. 5, as shown in FIG. 5A, the value obtained by dividing the volume of the sound from the television 10 picked up by the DV microphone 31 or the SP microphone 41 by the standard volume is the DV microphone 31 or When the volume of the voice from the operator picked up by the SP microphone 41 is evaluated to be smaller than the value obtained by dividing the volume by the standard volume, it is estimated that the distance between the operator and the television 10 is long. Also, as shown in FIG. 4B, the value obtained by dividing the volume of the sound from the television 10 picked up by the DV microphone 31 or SP microphone 41 by the standard volume is the sound picked up by the DV microphone 31 or SP microphone 41. If the volume of the voice from the operator is evaluated to be larger than the value obtained by dividing the volume by the standard volume, it is estimated that the distance between the operator and the television 10 is short.

音声応答を行うスピーカを決定するアルゴリズムは、例えば、操作者とテレビ10との距離が閾値以上の場合(つまり操作者からテレビ10が遠い)場合には、DVスピーカ32又はSPスピーカ42を、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する一方、操作者とテレビ10との距離が閾値未満の場合(つまり操作者からテレビ10が近い)場合には、TVスピーカ11を、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定するというものである。操作者からテレビ10が遠い場合にDVスピーカ32又はSPスピーカ42が音声応答のスピーカとして決定される理由は、DVスピーカ32又はSPスピーカ42は、操作者によって携帯されるか若しくは操作者の音声を検出しやすい位置にあることが前提であるから、テレビ10よりも操作者に近い位置にあって、操作者が応答音声を聞きやすいと想定されるためである。一方、操作者からテレビ10が近い場合にTVスピーカ11が音声応答のスピーカとして決定される理由は、TVスピーカ11自身が音声応答を行ったほうが、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいからである。 For example, when the distance between the operator and the television 10 is equal to or greater than a threshold value (that is, the television 10 is far from the operator), the algorithm for determining the speaker that performs the voice response operates the DV speaker 32 or the SP speaker 42. On the other hand, when the distance between the operator and the television 10 is less than the threshold value (that is, when the television 10 is close to the operator), the TV speaker 11 is determined as a speaker for giving voice response to the control contents instructed by the operator to the television 10 . The reason why the DV speaker 32 or the SP speaker 42 is determined as the speaker for voice response when the television 10 is far from the operator is that the DV speaker 32 or the SP speaker 42 is carried by the operator or is used to transmit the operator's voice. This is because it is assumed that it is located at a position that is easy to detect, and that it is at a position closer to the operator than the television 10, so that the operator can easily hear the response voice. On the other hand, when the television 10 is close to the operator, the TV speaker 11 is determined as the speaker for voice response. This is because it is easy to understand whether the instruction has been accepted.

サーバ装置50において、応答制御部53は、決定部52により決定されたスピーカから音声応答を行うための制御を行う。つまり、応答制御部53は、決定部52により決定されたスピーカがTVスピーカ11の場合は、ネットワーク2及びセットトップボックス20を介してTVスピーカ11を制御して音声応答を行わせる。また、応答制御部53は、決定部52により決定されたスピーカがDVスピーカ32の場合は、ネットワーク2及びセットトップボックス20を介してDVスピーカ32を制御して音声応答を行わせる。また、応答制御部53は、決定部52により決定されたスピーカがSPスピーカ42の場合は、ネットワーク2を介してSPスピーカ42を制御して音声応答を行わせる。 In the server device 50 , the response control unit 53 performs control for making voice responses from the speaker determined by the determination unit 52 . That is, when the speaker determined by the determination unit 52 is the TV speaker 11, the response control unit 53 controls the TV speaker 11 via the network 2 and the set-top box 20 to perform voice response. Further, when the speaker determined by the determination unit 52 is the DV speaker 32, the response control unit 53 controls the DV speaker 32 via the network 2 and the set top box 20 to perform voice response. Further, when the speaker determined by the determination unit 52 is the SP speaker 42, the response control unit 53 controls the SP speaker 42 via the network 2 to perform voice response.

例えば操作者の音声による指示が「6チャンネルに変えて」というものである場合には、これに対する音声応答は「6チャンネルに変えます」というものである。また、例えば操作者の音声による指示が「クイズ番組を検索して」というものである場合には、これに対する音声応答は「クイズ番組を検索しました。○○番組です。チャンネルを変えますか?」というものである。これらの音声応答の内容を決定するアルゴリズムは応答制御部53に記憶されており、応答制御部53は、このアルゴリズムに基づく音声応答のメッセージを、決定されたスピーカから出力させる制御を行う。 For example, if the operator's voice instruction is "change to channel 6", the voice response to this is "change to channel 6". Also, for example, when the operator's voice instruction is "Search for a quiz program", the voice response to this is "I searched for a quiz program. It's ○○ program. Do you want to change the channel?" ”. Algorithms for determining the content of these voice responses are stored in the response control unit 53, and the response control unit 53 controls output of voice response messages based on these algorithms from the determined speakers.

[動作]
次に図6を参照して、本実施形態の動作を説明する。操作者がテレビ10に対して音声によって所望の制御を指示すると、この音声はDVマイク21又はSPマイク41によって収音(つまり入力)される。DVマイク21又はSPマイク41のどちらが音声を収音するかは、例えば操作者が音声デバイス30を音声で起動するとか、スマートホン40のアプリケーションを起動する等の、操作者の明示的な指定によって決められる。収音された音声データは前述した通信経路を介してサーバ装置50に送信され、サーバ装置50の取得部51はこの音声データを取得する(図6のステップS11)。
[motion]
Next, referring to FIG. 6, the operation of this embodiment will be described. When the operator gives a desired control instruction to the television 10 by voice, this voice is picked up (inputted) by the DV microphone 21 or the SP microphone 41 . Whether the DV microphone 21 or the SP microphone 41 picks up the sound depends on the operator's explicit designation, for example, when the operator activates the audio device 30 by voice or activates the application of the smart phone 40. be decided. The collected voice data is transmitted to the server device 50 via the communication path described above, and the acquisition unit 51 of the server device 50 acquires this voice data (step S11 in FIG. 6).

取得部51により操作者の音声データが取得されると、決定部52は、TVスピーカ11(つまり第1のスピーカ)、又は、DVスピーカ32若しくはSPスピーカ42(つまり第2のスピーカ)のいずれかを、前述したような方法を用いて、操作者からテレビ10に指示された制御内容に対する音声応答を行うスピーカに決定する(ステップS12)。 When the voice data of the operator is acquired by the acquisition unit 51, the determination unit 52 selects either the TV speaker 11 (that is, the first speaker), the DV speaker 32, or the SP speaker 42 (that is, the second speaker). is determined to be the speaker that performs the voice response to the control content instructed by the operator to the television 10 using the method described above (step S12).

決定部52によりスピーカが決定されると、応答制御部53は、前述したような方法を用いて、そのスピーカから音声応答を行うための制御を行う(ステップS13)。操作者の音声による指示に応じた制御内容は、サーバ装置50又はセットトップボックス20による命令の下でテレビ10によって実行される。 When the speaker is determined by the determination unit 52, the response control unit 53 uses the method described above to perform control for making a voice response from the speaker (step S13). Control content according to the operator's voice instruction is executed by the television 10 under the command of the server device 50 or the set-top box 20 .

以上の実施形態によれば、操作者の指示に対する音声応答を行うスピーカを操作者とテレビとの間の距離に応じて切り替えることができる。つまり、操作者からテレビ10が遠い場合には、テレビ10よりも操作者に近い位置にあると想定される音声デバイス30又はスマートホン40が音声応答を行うことで、操作者が応答音声を聞きやすくなる。一方、操作者からテレビ10が近い場合に、TVスピーカ11自身が音声応答を行うことで、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすくなる。 According to the above embodiment, it is possible to switch the speaker that performs voice response to the operator's instruction according to the distance between the operator and the television. That is, when the television 10 is far from the operator, the audio device 30 or the smart phone 40, which is assumed to be closer to the operator than the television 10, responds by voice, so that the operator can hear the response voice. easier. On the other hand, when the television 10 is close to the operator, the TV speaker 11 itself responds by voice, making it easier for the operator to understand which home appliance the operator has given an instruction to and has received the instruction.

[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[Modification]
The invention is not limited to the embodiments described above. The embodiment described above may be modified as follows. Also, two or more of the following modified examples may be combined for implementation.

[変形例1]
上記実施形態において、セットトップボックス20に無線又は有線を介して接続される第2のスピーカとして、セットトップボックス20にBLE等の無線により接続されたDVスピーカ32と、セットトップボックス20にネットワーク2を介して接続されたSPスピーカ42を例示していたが、この例に限らない。セットトップボックス20に無線又は有線を介して接続される第2のスピーカは、例えば、セットトップボックス20にスマートホン40が備えるBLE等の無線を介して接続されたDVスピーカであってもよいし、セットトップボックス20にネットワーク2及びスマートホン40を介して接続されたDVスピーカであってもよい。また、テレビ10に対するリモートコントローラにスピーカ(以下、RCスピーカという)が備えられている場合には、第2のスピーカは、セットトップボックス20にBLE等の無線により接続されたRCスピーカであってもよい。なお、「AとBとが無線又は有線を介して接続される」の意味は、AとBとが通信可能に接続された通信経路において無線部分又は有線部分の少なくともいずれか一方が存在している、という意味である。
[Modification 1]
In the above embodiment, the DV speaker 32 wirelessly connected to the set-top box 20 such as BLE, and the network 2 Although the SP speaker 42 connected via is exemplified, the present invention is not limited to this example. The second speaker wirelessly or wiredly connected to the set-top box 20 may be, for example, a DV speaker wirelessly connected to the set-top box 20, such as BLE, included in the smart phone 40. , a DV speaker connected to the set-top box 20 via the network 2 and the smart phone 40 . Further, when the remote controller for the television 10 is equipped with a speaker (hereinafter referred to as an RC speaker), the second speaker may be an RC speaker connected to the set-top box 20 by wireless such as BLE. good. Note that "A and B are connected via a wireless or wired connection" means that at least one of a wireless portion and a wired portion exists in the communication path through which A and B are communicatively connected. It means that there is

なお、テレビ10が備える第1のスピーカは、テレビ10の内蔵スピーカであってもよいし、テレビ10に外付けされたスピーカであってもよい。また、スマートホン40に代えて、タブレットやウェアラブルデバイス等の通信装置を用いてもよい。
また、上記実施形態では、操作者の音声がDVマイク21によって収音された場合は、その音声データがサーバ装置50に送信され、サーバ装置50により音声認識がなされ、サーバ装置50の制御下でその音声認識結果に応じた制御内容がテレビ10において実行されていたが、この音声認識はサーバ装置50以外の装置(例えばセットトップボックス20)によって行われてもよい。
Note that the first speaker provided in the television 10 may be a built-in speaker of the television 10 or may be a speaker externally attached to the television 10 . Further, instead of the smart phone 40, a communication device such as a tablet or wearable device may be used.
Further, in the above embodiment, when the voice of the operator is picked up by the DV microphone 21, the voice data is transmitted to the server device 50, the voice is recognized by the server device 50, and the voice is recognized under the control of the server device 50. Although the television 10 executes the control contents according to the voice recognition result, this voice recognition may be performed by a device other than the server device 50 (for example, the set top box 20).

[変形例2]
上記実施形態において、操作者によるテレビ10に対する指示が音声によるものであったが、操作者の音声以外による指示であってもよい。例えば、操作者によるテキスト入力や、キーやスイッチ等の操作子によるもの、或いはいわゆるジェスチャ入力などの、任意の指示方法を採用し得る。
[Modification 2]
In the above-described embodiment, the operator's instruction to the television 10 is given by voice, but the instruction may be given by means other than the operator's voice. For example, any instruction method may be employed, such as text input by an operator, operation elements such as keys and switches, or so-called gesture input.

[変形例3]
上記実施形態において、決定部52は、DVマイク31又はSPマイク41が収音したテレビ10からの音声の音量と、DVマイク31又はSPマイク41が収音した操作者からの音声の音量とに基づいて、音声応答を行うスピーカを決定していたが、音量に加えてさらに操作者が居る方向を用いてもよい。この場合、DVマイク31又はSPマイク41は指向性マイクであり、DVマイク31又はSPマイク41は収音した音声の音源(つまり操作者)の方向を特定し得る。例えば、テレビ10と、DVマイク31又はSPマイク41との間に操作者がいる場合、音量に基づいて操作者とテレビ10との距離が遠いと推定されたときであっても、DVマイク31又はSPマイク41から操作者への方向がテレビ10に近づく方であるから、決定部52は、TVスピーカ11を音声応答を行うスピーカとして決定する。
[Modification 3]
In the above embodiment, the determining unit 52 determines the volume of the voice from the television 10 picked up by the DV microphone 31 or the SP microphone 41 and the volume of the voice from the operator picked up by the DV microphone 31 or the SP microphone 41. However, the direction in which the operator is present may be used in addition to the volume. In this case, the DV microphone 31 or the SP microphone 41 is a directional microphone, and the DV microphone 31 or the SP microphone 41 can specify the direction of the sound source (that is, the operator) of the collected sound. For example, when the operator is between the television 10 and the DV microphone 31 or the SP microphone 41, even if the distance between the operator and the television 10 is estimated to be far based on the volume, the DV microphone 31 Alternatively, since the direction from the SP microphone 41 to the operator is closer to the television 10, the determination unit 52 determines the TV speaker 11 as the speaker for voice response.

[変形例4]
上記実施形態において、サーバ装置50が決定部52及び応答制御部53を備えていたが、このような構成に限らず、制御システム1に含まれる装置のいずれかが決定部52又は応答制御部53を備えていればよい。例えばサーバ装置50が決定部52を備えてセットトップボックス20が応答制御部53を備えていてもよいし、セットトップボックス20が決定部52又は応答制御部53を備えていてもよい。
[Modification 4]
In the above embodiment, the server device 50 includes the determination unit 52 and the response control unit 53, but the configuration is not limited to such a configuration, and any of the devices included in the control system 1 may be the determination unit 52 or the response control unit 53. should be provided. For example, the server device 50 may include the determination unit 52 and the set top box 20 may include the response control unit 53 , or the set top box 20 may include the determination unit 52 or the response control unit 53 .

[変形例5]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されない。例えば、操作者の指示がなされた時間帯の属性を用いて音声応答を行うスピーカを決定してもよい。つまり、決定部52は、時間帯に基づいて、音声応答を行うスピーカを決定する。具体的には、操作者がテレビ10の前でじっとテレビ10の放送番組を見ているであろうと推測される時間帯(例えば昼食後や夕食後等の時間帯)である場合は、TVスピーカ11が応答を行うスピーカとして決定される。一方、操作者が場所を移動しながらときどきテレビを見ているであろうと推測される時間帯(例えば家事等の時間帯)である場合は、DVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。このような時間帯に基づくアルゴリズム、つまり時間帯と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 5]
Algorithms for determining speakers that provide voice responses are not limited to examples using the volume of the voice of the television 10 and the operator as in the embodiment. For example, the attribute of the time period in which the operator's instruction is given may be used to determine the speaker that performs the voice response. In other words, the determining unit 52 determines the speaker that performs the voice response based on the time period. Specifically, when it is assumed that the operator will be watching the broadcast program of the television 10 in front of the television 10 (for example, after lunch or after dinner), the TV speaker 11 is determined as the speaker that responds. On the other hand, when it is assumed that the operator is watching television from time to time while moving from place to place (for example, during the time of housework), the DV speaker 32 and the SP speaker 42 are used as speakers for responding. It is determined. Algorithm based on such a time slot, that is, the relationship between the time slot and the speaker that performs the voice response is stored by the determination unit 52, and the above determination is made based on this relationship.

[変形例6]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者にとっての騒音に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者に聞こえる騒音の音量に基づいて、音声応答を行うスピーカを決定する。具体的には、DVマイク31又はSPマイク41が収音した騒音が閾値を超える場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、DVマイク31又はSPマイク41が収音した騒音が閾値未満の場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような騒音に基づくアルゴリズム、つまり騒音の大きさと音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 6]
Algorithm for determining the speaker that performs the voice response is not limited to the example using the volume of the voice of the television 10 and the operator as in the embodiment. For example, based on the noise for the operator, the speaker that performs the voice response is selected. may decide. In other words, the determination unit 52 determines the speaker that performs the voice response based on the volume of the noise heard by the operator. Specifically, when the noise picked up by the DV microphone 31 or the SP microphone 41 exceeds the threshold, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, is determined as the speaker that responds. be. On the other hand, when the noise picked up by the DV microphone 31 or the SP microphone 41 is less than the threshold value, the TV speaker 11 makes it easy for the operator to understand which home appliance the instruction has been given and the instruction has been received. It is determined as the speaker to perform. Algorithm based on such noise, that is, the relationship between the loudness of noise and the loudspeaker that responds with voice is stored by the determination unit 52, and the above determination is made based on this relationship.

[変形例7]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者以外の人間の有無に基づく方法で、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者以外の人間の有無に基づいて、音声応答を行うスピーカを決定する。具体的には、テレビ10、セットトップボックス20、音声デバイス30又はスマートホン40が、操作者以外の人間の有無を検出する手段を備える。これは例えば人感センサや画像認識による検出等である。操作者以外の人間が操作者と同じ部屋に居る場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、操作者以外の人間が操作者と同じ部屋に居ない場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような操作者以外の人間の有無に基づくアルゴリズム、つまり操作者以外の人間の有無と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 7]
Algorithm for determining the speaker that performs the voice response is not limited to the example using the volume of the voice of the television 10 and the operator as in the embodiment. You may decide which speaker to do. In other words, the determination unit 52 determines the speaker that performs voice response based on the presence or absence of a person other than the operator. Specifically, the television 10, the set-top box 20, the audio device 30, or the smart phone 40 has means for detecting the presence or absence of a person other than the operator. This is, for example, detection by a human sensor or image recognition. When a person other than the operator is in the same room as the operator, the DV speaker 32 and the SP speaker 42, which are generally assumed to be near the operator, are determined as the speakers for responding. On the other hand, when a person other than the operator is not in the same room as the operator, the TV speaker 11 makes it easy for the operator to understand which home appliance the operator has given an instruction to and the instruction has been received. is determined as The algorithm based on the presence or absence of a person other than the operator, that is, the relationship between the presence or absence of a person other than the operator and the speaker that performs voice response is stored in the determination unit 52, and the above determination is made based on this relationship. .

[変形例8]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者によって指示された制御内容に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者から指示された制御内容に基づいて、音声応答を行うスピーカを決定する。具体的には、操作者によって指示された制御内容が、その操作者以外の他人と共有したくない制御内容(例えば個人的な理由に基づく制御内容)である場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、操作者によって指示された制御内容が、その操作者以外の他人と共有してもよい制御内容(例えば個人的な理由ではない理由に基づく制御内容)である場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような制御内容に基づくアルゴリズム、つまり操作者により指示された制御内容と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 8]
Algorithm for determining the speaker that performs the voice response is not limited to the example using the television 10 and the volume of the voice of the operator as in the embodiment. You may decide which speaker to do. In other words, the determining unit 52 determines the speaker that performs the voice response based on the control details instructed by the operator. Specifically, if the control content instructed by the operator is control content that the operator does not want to share with others (for example, control content based on personal reasons), it is generally recommended that the The DV speaker 32 and the SP speaker 42, which are assumed to exist, are determined as the speakers that respond. On the other hand, if the control contents instructed by the operator are control contents that can be shared with others other than the operator (for example, control contents based on non-personal reasons), the operator himself/herself can The TV speaker 11 is determined as the speaker that responds by issuing an instruction to the home appliance and making it easy to understand whether the instruction has been accepted. Algorithms based on such control details, that is, the relationship between the control details instructed by the operator and the speaker that performs the voice response are stored in the determination unit 52, and the above determination is made based on this relationship.

[変形例9]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、テレビ10の放送番組に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、テレビ10により出力されている番組の内容に基づいて、音声応答を行うスピーカを決定する。テレビ10により出力されている番組の内容をその操作者以外の他人に知られたくない場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。一方、番組の内容をその操作者以外の他人に知られてもよい場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。このような番組の内容に基づくアルゴリズム、つまり番組の内容と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 9]
The algorithm for determining the speaker that performs the voice response is not limited to the example using the volume of the voice of the television 10 and the operator as in the embodiment. may decide. In other words, the determination unit 52 determines the speaker that performs voice response based on the content of the program being output by the television 10 . If the contents of the program output by the television 10 should not be known to others other than the operator, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, is determined as the speaker for responding. be done. On the other hand, when the contents of the program may be known to others other than the operator, the TV speaker 11 makes it easy for the operator to understand to which home appliance the instruction has been given and the instruction has been received. It is determined as the speaker to perform. Algorithms based on such program content, that is, the relationship between the program content and the speaker that performs voice response are stored in the determination unit 52, and the above determination is made based on this relationship.

[変形例10]
音声応答を行うスピーカを決定するアルゴリズムは、実施形態のようなテレビ10及び操作者の音声の音量を用いる例に限定されず、例えば、操作者の発話速度に基づいて、音声応答を行うスピーカを決定してもよい。つまり、決定部52は、操作者による音声発話の速度に基づいて、音声応答を行うスピーカを決定する。具体的には、DVマイク31又はSPマイク41が収音した操作者の発話速度が閾値を超える場合は、一般に操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答を行うスピーカとして決定される。発話速度が閾値を超える場合は、例えば操作者が家事等の別の作業を行っていて忙しいと想定されるから、操作者の近くにあると想定されるDVスピーカ32やSPスピーカ42が応答するほうが望ましい。一方、DVマイク31又はSPマイク41が収音した操作者の発話速度が閾値未満の場合は、操作者自らがどの家電に対して指示を行ってその指示が受け付けられたかを理解しやすいTVスピーカ11が応答を行うスピーカとして決定される。発話速度が閾値未満の場合は、例えば操作者がリラックスしてテレビ10を視聴していると想定されるから、操作者が視聴しているテレビ10のTVスピーカ11が応答を行うほうが望ましい。このような発話速度に基づくアルゴリズム、つまり発話速度と音声応答を行うスピーカとの関係は決定部52により記憶されており、この関係に基づき上記決定がなされる。
[Modification 10]
Algorithm for determining the speaker that performs voice response is not limited to the example using the television 10 and the volume of the operator's voice as in the embodiment. For example, based on the speech rate of the operator, the speaker that performs voice response is selected. may decide. In other words, the determining unit 52 determines the speaker that performs the voice response based on the voice utterance speed of the operator. Specifically, when the speech rate of the operator picked up by the DV microphone 31 or the SP microphone 41 exceeds the threshold, the DV speaker 32 or the SP speaker 42, which is generally assumed to be near the operator, responds. Determined as a speaker. If the speech rate exceeds the threshold, it is assumed that the operator is busy doing other work such as housework, so the DV speaker 32 or SP speaker 42 that is assumed to be near the operator responds. is preferable. On the other hand, when the speech rate of the operator picked up by the DV microphone 31 or the SP microphone 41 is less than the threshold, the TV speaker makes it easy for the operator to understand which home appliance the operator himself has instructed and the instruction has been received. 11 is determined as the speaker that responds. If the speech rate is less than the threshold, it is assumed that the operator is watching the television 10 in a relaxed manner, so it is desirable that the TV speaker 11 of the television 10 that the operator is watching responds. Algorithm based on such a speech rate, that is, the relationship between the speech rate and the speaker that performs the voice response is stored by the determination unit 52, and the above determination is made based on this relationship.

[そのほかの変形例]
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
[Other Modifications]
The block diagrams used in the description of the above embodiments show blocks in functional units. These functional blocks (components) are implemented by any combination of hardware and/or software. Further, means for realizing each functional block is not particularly limited. That is, each functional block may be implemented by one device physically and/or logically coupled, or may be implemented by two or more physically and/or logically separated devices directly and/or indirectly. These multiple devices may be physically connected (eg, wired and/or wirelessly).

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Aspects/embodiments described herein support Long Term Evolution (LTE), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, Future Radio Access (FRA), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), It may be applied to systems utilizing Bluetooth®, other suitable systems, and/or advanced next generation systems based thereon.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
The procedures, sequences, flow charts, etc. of each aspect/embodiment described herein may be interchanged so long as there is no inconsistency. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.
Each aspect/embodiment described herein may be used alone, in combination, or switched between implementations. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used herein, the terms "system" and "network" are used interchangeably.

本明細書で説明した情報又はパラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The information, parameters, etc. described in this specification may be represented by absolute values, relative values from a predetermined value, or other corresponding information. The names used for the parameters described above are not limiting in any way. Further, the formulas, etc. using these parameters may differ from those explicitly disclosed herein.

本明細書で使用する「判定(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判定」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining) した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、受信(receiving) (例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判定」「決定」したとみなす事を含み得る。つまり、「判定」「決定」は、何らかの動作を「判定」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may encompass a wide variety of actions. "Determining", "determining" means, for example, judging, calculating, computing, processing, deriving, investigating, looking up (e.g., table , searching in a database or other data structure), ascertaining as "determining" or "determining". Also, “judgment” and “decision” are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, and access. (accessing) (for example, accessing data in memory) may include deeming that something has been "determined" or "determined". In addition, "judgement" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision".

本発明は、制御システム1又はサーバ装置50において行われる処理のステップを備える情報処理方法として提供されてもよい。また、本発明は、サーバ装置50において実行されるプログラムとして提供されてもよい。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。 The present invention may be provided as an information processing method including processing steps performed in the control system 1 or the server device 50 . Moreover, the present invention may be provided as a program executed in the server device 50 . Such a program may be provided in a form recorded on a recording medium such as an optical disc, or may be provided in a form in which the program is downloaded to a computer via a network such as the Internet, installed, and made available. It is possible.

ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may be transmitted and received over a transmission medium. For example, the software can be used to access websites, servers, or other When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission media.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 Terms described herein and/or terms necessary for understanding the specification may be replaced with terms having the same or similar meaning.

本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1要素が第2要素に先行しなければならないことを意味しない。 Any reference to elements using the "first," "second," etc. designations used herein does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient method of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements can be employed therein, or that the first element must precede the second element in any way.

「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 To the extent that "including," "comprising," and variations thereof are used herein or in the claims, these terms, as well as the term "comprising," are inclusive. intended to be Furthermore, the term "or" as used in this specification or the claims is not intended to be an exclusive OR.

本開示の全体において、例えば、英語でのa、an、及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout this disclosure, where articles have been added by translation, e.g., a, an, and the in English, these articles are used unless the context clearly indicates otherwise. It shall include plural things.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び決定態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be embodied in modified and determined aspects without departing from the spirit and scope of the invention as defined by the appended claims. Accordingly, the descriptions herein are for the purpose of illustration and description, and are not intended to have any limiting meaning with respect to the present invention.

1…制御システム、2…ネットワーク、10…テレビジョン受信機、11…TVスピーカ、20…セットトップボックス、30…音声デバイス、31…DVマイク、32…DVスピーカ、40…スマートホン、41…SPマイク、42…SPスピーカ、4001…プロセッサ、4002…メモリ、4003…ストレージ、4004…スマートホン、4005…入力装置、4006…出力装置、50…サーバ装置、51…取得部、52…決定部、53…応答制御部、5001…プロセッサ、5002…メモリ、5003…ストレージ、5004…通信装置、5005…入力装置、5006…出力装置。 DESCRIPTION OF SYMBOLS 1... Control system, 2... Network, 10... Television receiver, 11... TV speaker, 20... Set-top box, 30... Audio device, 31... DV microphone, 32... DV speaker, 40... Smart phone, 41... SP Microphone 42 SP speaker 4001 Processor 4002 Memory 4003 Storage 4004 Smartphone 4005 Input device 4006 Output device 50 Server device 51 Acquisition unit 52 Determination unit 53 ... response control unit, 5001 ... processor, 5002 ... memory, 5003 ... storage, 5004 ... communication device, 5005 ... input device, 5006 ... output device.

Claims (4)

テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信
機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有
線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機
に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、
前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制
御部とを備え
前記決定部は、操作者以外の人間の有無に基づいて、前記音声応答を行うスピーカを決
定することを特徴とする制御システム。
Connected wirelessly or by wire to a first speaker included in a television receiver, or to a control device that converts a broadcast signal into a signal that can be viewed by the television receiver and controls the television receiver a determination unit that determines one of the second speakers as a speaker that performs voice response to the control content instructed by the operator to the television receiver;
A response control unit that performs control for performing the voice response from the speaker determined by the determination unit ,
The decision unit decides the speaker that performs the voice response based on the presence or absence of a person other than the operator.
A control system characterized by :
テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信
機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有
線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機
に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、
前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制
御部とを備え、
前記決定部は、前記操作者から指示された制御内容に基づいて、前記音声応答を行うス
ピーカを決定することを特徴とする制御システム。
A first speaker provided in a television receiver, or a broadcast signal is received by the television
wireless or wired to the control device that converts it into a signal that can be viewed by the television receiver and controls the television receiver.
Any of the second speakers connected via a line is connected from the operator to the television receiver.
A decision unit that decides a speaker that performs voice response to the control content instructed to;
a response control for controlling the voice response from the speaker determined by the determination unit;
Equipped with the Lord,
The determining unit performs the voice response based on the control content instructed by the operator.
A control system characterized by determining a peaker .
テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信
機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有
線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機
に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、
前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制
御部とを備え、
前記決定部は、前記テレビジョン受信機により出力されている番組の内容に基づいて、
前記音声応答を行うスピーカを決定することを特徴とする制御システム。
A first speaker provided in a television receiver, or a broadcast signal is received by the television
wireless or wired to the control device that converts it into a signal that can be viewed by the television receiver and controls the television receiver.
Any of the second speakers connected via a line is connected from the operator to the television receiver.
A decision unit that decides a speaker that performs voice response to the control content instructed to;
a response control for controlling the voice response from the speaker determined by the determination unit;
Equipped with the Lord,
The determination unit, based on the content of the program being output by the television receiver,
A control system that determines a speaker that performs the voice response .
テレビジョン受信機が備える第1のスピーカ、又は、放送信号を前記テレビジョン受信
機に視聴可能な信号に変換して当該テレビジョン受信機を制御する制御装置に無線又は有
線を介して接続される第2のスピーカのいずれかを、操作者から前記テレビジョン受信機
に指示された制御内容に対する音声応答を行うスピーカに決定する決定部と、
前記決定部により決定されたスピーカから前記音声応答を行うための制御を行う応答制
御部とを備え、
前記決定部は、操作者による音声発話の速度に基づいて、前記音声応答を行うスピーカ
を決定することを特徴とする制御システム。
A first speaker provided in a television receiver, or a broadcast signal is received by the television
wireless or wired to the control device that converts it into a signal that can be viewed by the television receiver and controls the television receiver.
Any of the second speakers connected via a line is connected from the operator to the television receiver.
A decision unit that decides a speaker that performs voice response to the control content instructed to;
a response control for controlling the voice response from the speaker determined by the determination unit;
Equipped with the Lord,
The determination unit includes a speaker that performs the voice response based on the speed of voice utterance by the operator.
A control system characterized by determining
JP2019022427A 2019-02-12 2019-02-12 control system Active JP7181116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022427A JP7181116B2 (en) 2019-02-12 2019-02-12 control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022427A JP7181116B2 (en) 2019-02-12 2019-02-12 control system

Publications (2)

Publication Number Publication Date
JP2020129776A JP2020129776A (en) 2020-08-27
JP7181116B2 true JP7181116B2 (en) 2022-11-30

Family

ID=72175024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022427A Active JP7181116B2 (en) 2019-02-12 2019-02-12 control system

Country Status (1)

Country Link
JP (1) JP7181116B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319084A (en) 2001-04-19 2002-10-31 Omega Techno Modeling:Kk Communication notification system for mutual and in neighborhood
WO2007072821A1 (en) 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. Device linkage apparatus and device linkage method
WO2015133022A1 (en) 2014-03-03 2015-09-11 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017203967A (en) 2016-05-13 2017-11-16 シャープ株式会社 Voice output control device, electronic apparatus, and method for controlling voice output control device
US20180322870A1 (en) 2017-01-16 2018-11-08 Kt Corporation Performing tasks and returning audio and visual feedbacks based on voice command

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177376A (en) * 1993-12-17 1995-07-14 Hitachi Ltd Television receiver, remote controller and their combination

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319084A (en) 2001-04-19 2002-10-31 Omega Techno Modeling:Kk Communication notification system for mutual and in neighborhood
WO2007072821A1 (en) 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. Device linkage apparatus and device linkage method
WO2015133022A1 (en) 2014-03-03 2015-09-11 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017203967A (en) 2016-05-13 2017-11-16 シャープ株式会社 Voice output control device, electronic apparatus, and method for controlling voice output control device
US20180322870A1 (en) 2017-01-16 2018-11-08 Kt Corporation Performing tasks and returning audio and visual feedbacks based on voice command

Also Published As

Publication number Publication date
JP2020129776A (en) 2020-08-27

Similar Documents

Publication Publication Date Title
US11546410B2 (en) Device and method for adaptively changing task-performing subjects
US11144274B2 (en) Methods, systems, and media for providing a remote control interface
US10075653B2 (en) Method and electronic device for image processing
AU2013237690B2 (en) Method and apparatus for performing preset operation mode using voice recognition
KR102130603B1 (en) Frequency division duplex wireless receiver and method
KR102189648B1 (en) Display, controlling method thereof and display system
WO2019233316A1 (en) Data processing method and device, mobile terminal, and storage medium
US10764678B2 (en) Throwable microphone with virtual assistant interface
CN111966804A (en) Expression processing method, terminal and storage medium
WO2017215615A1 (en) Sound effect processing method and mobile terminal
WO2019228370A1 (en) Data processing method and device, mobile terminal and storage medium
WO2019223484A1 (en) Information display method and apparatus, and mobile terminal and storage medium
CN108810262B (en) Application configuration method, terminal and computer readable storage medium
CN105993025B (en) Method and apparatus for creating communication group
JP7181116B2 (en) control system
JP2019032387A (en) Controller, program and control method
JP7429194B2 (en) Dialogue device and dialogue program
CN113805837A (en) Audio processing method, mobile terminal and storage medium
WO2019228106A1 (en) Press area optimization method and device, mobile terminal and storage medium
US20140337739A1 (en) Method and Mobile Device for Activating Voice Intercom Function of Instant Messaging Application Software
US11930237B2 (en) Display apparatus, method for UI display thereof and computer-readable recording medium
JP2019074949A (en) Retrieval device and program
JP7246255B2 (en) Information processing device and program
EP4354425A1 (en) Processing method, terminal device, and storage medium
CN115831136A (en) Processing method, intelligent terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221117

R150 Certificate of patent or registration of utility model

Ref document number: 7181116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150