JP7229906B2 - Command controller, control method and control program - Google Patents

Command controller, control method and control program Download PDF

Info

Publication number
JP7229906B2
JP7229906B2 JP2019221573A JP2019221573A JP7229906B2 JP 7229906 B2 JP7229906 B2 JP 7229906B2 JP 2019221573 A JP2019221573 A JP 2019221573A JP 2019221573 A JP2019221573 A JP 2019221573A JP 7229906 B2 JP7229906 B2 JP 7229906B2
Authority
JP
Japan
Prior art keywords
command
unit
control
recognition
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019221573A
Other languages
Japanese (ja)
Other versions
JP2021092612A (en
Inventor
知 浜田
大 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TVS Regza Corp
Original Assignee
TVS Regza Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TVS Regza Corp filed Critical TVS Regza Corp
Priority to JP2019221573A priority Critical patent/JP7229906B2/en
Priority to CN202080005756.9A priority patent/CN113228166B/en
Priority to PCT/CN2020/128811 priority patent/WO2021109839A1/en
Publication of JP2021092612A publication Critical patent/JP2021092612A/en
Application granted granted Critical
Publication of JP7229906B2 publication Critical patent/JP7229906B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Selective Calling Equipment (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

実施形態は、コマンド制御装置、制御方法および制御プログラムに関する。 Embodiments relate to a command control device, a control method, and a control program.

近年、音声認識を用いて音声で機器を制御する音声制御技術が検討されている。例えば、音声制御技術はテレビのリモコンの代わりに用いることができ、ユーザが制御命令であるコマンドを発声すると、コマンドの重畳した声(以降、音声コマンドと称する)がテレビに付属するマイクなどで受波され、音声認識によってコマンドがデータとして取り出される。取り出されたコマンドデータがテレビで実行されるコマンドとなる。この技術においては、周囲の騒音などの影響により、ユーザの発した音声コマンドが音声認識によって間違ったコマンドとして認識されることがあり、音声認識の性能の向上が検討されている。 2. Description of the Related Art In recent years, voice control technology for controlling devices by voice using voice recognition has been studied. For example, voice control technology can be used in place of a remote control for a television. When a user utters a command, which is a control instruction, a voice overlaid with the command (hereinafter referred to as a voice command) is received by a microphone attached to the television. and the command is extracted as data by voice recognition. The extracted command data becomes a command to be executed on the television. In this technology, a voice command uttered by the user may be recognized as an incorrect command by voice recognition due to the influence of ambient noise, etc., and improvement of voice recognition performance is being studied.

特開2017-167247号公報JP 2017-167247 A

しかしながら、周囲の騒音の大きさによっては音声認識がうまく機能せず、音声制御技術を適用できる範囲が限定されることがある。また、そのため平時には動作していた音声制御技術による制御が、地震など緊急時に騒音が大きくなって正常に動作しなくなることが起こりうる。 However, the volume of ambient noise can interfere with voice recognition and limit the range of applicability of voice control technology. In addition, there is a possibility that the control by the voice control technology, which operates in normal times, may not operate normally due to increased noise in an emergency such as an earthquake.

本発明が解決しようとする課題は、音声コマンドに対する音声認識を支援するコマンド制御装置、制御方法および制御プログラムを提供することである。 A problem to be solved by the present invention is to provide a command control device, a control method, and a control program that support voice recognition for voice commands.

一実施形態に係るコマンド制御装置は、入力された音声に基づいて制御対象機器に対する制御命令を含む実行コマンドを生成するコマンド制御装置において、前記音声を音声認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成する実行コマンド生成手段と、前記音声を認識して、前記認識コマンドを得る音声認識部と、追加情報を得る追加情報取得手段と、前記認識コマンドと、前記追加情報と、前記実行コマンドとの対応関係を記憶する記憶手段とを備え、前記実行コマンド生成手段は、前記認識コマンドと、前記追加情報と、前記対応関係とに基づいて、前記実行コマンドを生成することを特徴とする。 A command control device according to one embodiment is a command control device that generates an execution command including a control command for a device to be controlled based on an input voice, wherein a first command included in a recognition command obtained by voice recognition of the voice is execution command generating means for generating an execution command including one of one control instruction and a second control instruction different from the first control instruction; and speech recognition for obtaining the recognition command by recognizing the speech. additional information obtaining means for obtaining additional information; and storage means for storing correspondence relationships among the recognition commands, the additional information, and the execution commands, wherein the execution command generation means is configured to generate the recognition commands and the execution commands. and generating the execution command based on the additional information and the correspondence relationship .

図1は、第1の実施形態に係るシステム全体の構成例を示した図である。FIG. 1 is a diagram showing a configuration example of the entire system according to the first embodiment. 図2は、同実施形態に係る受信装置の機能構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the receiving device according to the embodiment; 図3は、同実施形態に係るコマンド制御部の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a functional configuration of a command control unit according to the embodiment; 図4は、同実施形態において、音声コマンドにより制御できる制御対象部位と制御対象部位の状態の一例を示す図である。FIG. 4 is a diagram showing an example of a control target part that can be controlled by a voice command and the state of the control target part in the same embodiment. 図5は、同実施形態において、利用可能な補助情報の一例を示す図である。FIG. 5 is a diagram showing an example of auxiliary information that can be used in the same embodiment. 図6は、同実施形態において、コマンド制御部が音声コマンドを受信して実行コマンドを送信するための処理動作例を示すフローチャートである。FIG. 6 is a flowchart showing a processing operation example for the command control unit to receive a voice command and transmit an execution command in the same embodiment. 図7は、同実施形態において、メイン電源を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。FIG. 7 is a diagram showing an example of execution command generation conditions set in the command control unit for controlling the main power supply in the embodiment. 図8は、第2の実施形態において、音量を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。FIG. 8 is a diagram showing an example of execution command generation conditions set in the command control unit for volume control in the second embodiment. 図9は、第3の実施形態において、デジタルコンテンツ受信を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。FIG. 9 is a diagram showing an example of execution command generation conditions set in the command control unit for controlling reception of digital content in the third embodiment. 図10は、第4の実施形態に係るシステム全体の構成例を示した図である。FIG. 10 is a diagram showing a configuration example of the entire system according to the fourth embodiment.

以下、実施の形態について図面を参照して説明する。 Embodiments will be described below with reference to the drawings.

図1は、実施形態に係るシステム全体の構成例を示した図である。 FIG. 1 is a diagram showing a configuration example of the entire system according to the embodiment.

受信装置10は、デジタルコンテンツを視聴する機器であり、例えば、2Kまたは4K/8Kといった地上波放送、衛星放送などのデジタル放送を受信し視聴可能なテレビ受信装置(テレビ装置、テレビジョン受信機、放送信号受信装置とも称される)である。また受信装置10は、例えばインターネットなどのネットワーク500に接続するための外部インターフェースを備え、ネットワーク500に接続されるコンテンツサーバ装置200(クラウドサーバとしてもよい)が提供するデジタルコンテンツを視聴することが可能である。また、受信装置10は、録画再生機能を有していてもよく、録画再生機能により受信装置10にて録画したデジタルコンテンツを視聴可能である。また受信装置10に図示せぬ録画再生装置が接続されることで、図示せぬ録画再生装置が録画したデジタルコンテンツを視聴可能としてもよい。なお、図1では、1つの受信装置10を示したが、さらに多数の受信装置10が接続されてよい。ただし受信装置10は、デジタルコンテンツを受信可能な機器であれば、全てが同じ機能を有する必要はない。具体的には、視聴可能なモニタのない録画のみができるレコーダや放送信号を受信可能なSet Top Box(STB)などでもよい。テレビ装置やレコーダ、STBなどを総称して受信装置10と称する。 The receiving device 10 is a device for viewing digital content, for example, a television receiving device (television device, television receiver, Also called a broadcast signal receiver). The receiving device 10 also has an external interface for connecting to a network 500 such as the Internet, and can view digital content provided by a content server device 200 (which may be a cloud server) connected to the network 500. is. Further, the receiving device 10 may have a recording/playback function, and the digital content recorded by the receiving device 10 can be viewed by the recording/playback function. Also, by connecting a recording/reproducing device (not shown) to the receiving device 10, digital content recorded by the recording/reproducing device (not shown) may be viewed. Although one receiver 10 is shown in FIG. 1, more receivers 10 may be connected. However, the receiving devices 10 do not need to have the same functions as long as they are capable of receiving digital content. Specifically, a recorder capable of only recording without a viewable monitor or a Set Top Box (STB) capable of receiving broadcast signals may be used. A television set, a recorder, an STB, and the like are collectively referred to as a receiving device 10 .

本実施形態においては、特にテレビ装置の例を示すが、テレビ装置をレコーダ、STBなどの受信装置10に置き換えてもよい。また、受信装置10は、同様の受信機能を持つ装置として、パーソナルコンピュータやスマートフォンなどモバイル機器でもよい。 In this embodiment, an example of a television device is particularly shown, but the television device may be replaced with a receiver 10 such as a recorder or STB. Further, the receiving device 10 may be a mobile device such as a personal computer or a smart phone as a device having a similar receiving function.

本実施形態の受信装置10は、音声認識を用いた音声による制御が可能である。コマンド制御部1は、例えばユーザが発声した音声コマンドを音声認識し、音声認識により得たコマンド(以降、認識コマンドと称する)を用いて受信装置10内の各機能を制御する。また、リモコン100は受信装置10を遠隔制御するリモートコントローラーである。 The receiving device 10 of this embodiment can be controlled by voice using voice recognition. The command control unit 1, for example, recognizes a voice command uttered by a user, and controls each function in the receiving device 10 using the command obtained by the voice recognition (hereinafter referred to as a recognition command). A remote controller 100 is a remote controller for remotely controlling the receiving device 10 .

また、受信装置10は、受信装置10によって視聴されたデジタルコンテンツの視聴履歴(以降、視聴データと称する)を収集し記憶できる。また、受信装置10に固有のデータ(以降、機器個別データと称する)を記憶できる。視聴データと機器個別データを含めて視聴機器データと称する。受信装置10は、視聴機器データなどの保存データをネットワーク500に接続される視聴解析装置300に出力し、視聴解析装置300が実施した視聴機器データに対する解析結果を受信することができる。 The receiving device 10 can also collect and store a viewing history of digital content viewed by the receiving device 10 (hereinafter referred to as viewing data). In addition, data unique to the receiving device 10 (hereinafter referred to as device-specific data) can be stored. Viewing data and device-specific data are collectively referred to as viewing device data. The receiving apparatus 10 can output stored data such as audio-visual equipment data to the viewing analysis apparatus 300 connected to the network 500, and receive analysis results of the audio-visual equipment data performed by the viewing analysis apparatus 300. FIG.

本実施形態における「視聴」とは、ユーザが実際に視聴していなくても、視聴可能な状態にデジタルコンテンツを受信する、または、受信した状態もしくは録画した状態を含む。従って、本実施形態における「視聴履歴」は、例えば、STBなど受信装置が、単に受信してはいるが、視聴の有無を問わない「受信履歴」や、受信装置がレコーダであった場合には、受信装置で受信され、録画予約された、または、録画がされた「録画履歴」等を含む。また同様に本実施形態における「視聴時間」は、例えば、STBなど受信装置がデジタルコンテンツを受信した時間や、受信装置がレコーダであった場合には、デジタルコンテンツを録画がされた時間等を含む。 "Viewing" in this embodiment includes receiving, receiving, or recording digital content in a viewable state even if the user does not actually view it. Therefore, the "viewing history" in the present embodiment is, for example, a "receiving history" that is simply received by a receiving device such as an STB, but does not matter whether or not it is viewed, or if the receiving device is a recorder, , "recording history" received by the receiving device, recording reservation or recording, etc. are included. Similarly, the "viewing time" in the present embodiment includes, for example, the time when the receiving device such as STB receives the digital content, or when the receiving device is a recorder, the time when the digital content is recorded. .

従って、受信装置10をレコーダ、STBなどの受信装置に置き換えた場合に、レコーダ、STBなどの受信装置が生成した受信ログデータや、ダウンロード履歴データ、録画データなども視聴機器データに含める。 Therefore, when the receiving device 10 is replaced with a receiving device such as a recorder or STB, reception log data generated by the receiving device such as the recorder or STB, download history data, recorded data, etc. are included in the audio-visual equipment data.

機器個別データは、例えば、受信装置10のリモコン100を使ってユーザが受信装置10に登録してもよいし、受信装置10の固体番号のようにメーカが設定する場合もある。機器個別データは、例えば、受信装置10のIPアドレスや、識別番号、また予め所有者などにより登録されるデモグラフィックデータ(以降、デモグラと称する)などが含まれる。デモグラとは、受信装置10を視聴するユーザを分類するデータであり、例えば、ユーザの年齢、性別、家族構成、居住地域などの情報である。識別番号は、異なる受信装置10を識別する番号、文字列などであり、例えば数字、アルファベットの組み合わせから構成されている。 For example, the device-specific data may be registered in the receiving device 10 by the user using the remote control 100 of the receiving device 10 , or may be set by the manufacturer, such as the individual number of the receiving device 10 . The device-specific data includes, for example, the IP address and identification number of the receiving device 10, and demographic data (hereinafter referred to as demographic data) registered in advance by the owner or the like. Demographics are data for classifying users who view the receiving apparatus 10, and are information such as age, sex, family structure, and area of residence of the users, for example. The identification number is a number, character string, or the like that identifies a different receiver 10, and is composed of, for example, a combination of numbers and alphabets.

コンテンツサーバ装置200は、デジタルコンテンツを提供するネットワーク上もしくはクラウドサーバである。コンテンツサーバ装置200は、例えば、コンテンツサービスプロバイダ(CSP)や通信事業者、また、その他Over The Top(OTT)と呼ばれるデジタルコンテンツのサービス事業者などによって提供される。Video On Demandといったサービスを提供するサーバもコンテンツサーバ装置200に含まれる。 The content server device 200 is a network or cloud server that provides digital content. The content server device 200 is provided by, for example, a content service provider (CSP), a telecommunications carrier, or a digital content service provider called Over The Top (OTT). The content server device 200 also includes a server that provides services such as Video On Demand.

視聴解析装置300は、ネットワーク上もしくはクラウド上に存在し、受信装置10が記憶する視聴機器データを収集し、記憶し、さらに記憶したデータを解析して各種の視聴解析を行い、例えば解析を要求した受信装置10に解析結果を出力する装置である。視聴解析装置300は、例えばCPUやメモリなどを有したコンピュータに構築されてもよい。視聴解析装置300は、パーソナルコンピュータであっても良いし、サーバ、データベースなどによるクラウドサービスであっても良い。 The viewing analysis device 300 exists on a network or in the cloud, collects and stores viewing equipment data stored by the receiving device 10, analyzes the stored data, performs various viewing analyses, and, for example, requests analysis. It is a device that outputs the analysis result to the receiving device 10 that has received the data. The viewing analysis device 300 may be constructed in a computer having a CPU, a memory, and the like, for example. The viewing analysis device 300 may be a personal computer, or may be a cloud service using a server, database, or the like.

また、視聴解析装置300は、受信装置10が個別に持つ識別番号により個々の受信装置10を識別して、受信装置10個別の視聴解析を行うことができてもよい。 Also, the viewing analysis device 300 may be able to identify each receiving device 10 by an identification number that the receiving device 10 has individually, and perform viewing analysis for each receiving device 10 .

音声認識装置400は、ネットワーク500上に設置される。音声認識装置400は、例えばCPUやメモリなどを有したコンピュータに構築される。音声認識装置400は、パーソナルコンピュータであっても良いし、クラウドサーバであっても良い。音声認識装置400は、マイクロフォンなどが受波したユーザの音声に対する音声波形のデジタルデータ(以降、音声データと称する)を、ネットワーク500を介して受信し、ユーザの発したコマンドを推定もしくは認識し、認識したコマンド(認識コマンド)をテキストデータとして出力する。音声認識装置400においては、ユーザが制御対象に発するコマンドを予めテキストデータとしてリスト化しており、受信した音声データから得たテキストデータとリストのテキストデータとを比較して、リスト中の最も近いコマンドを選択して、選択したコマンドのテキストデータを出力することでもよい。ただし、音声認識装置400における音声認識の方法はこの方法に限定されない。 Speech recognition device 400 is installed on network 500 . The speech recognition device 400 is built in a computer having a CPU, memory, and the like, for example. The speech recognition device 400 may be a personal computer or a cloud server. The speech recognition device 400 receives, via the network 500, digital data of a speech waveform of the user's speech received by a microphone or the like (hereinafter referred to as speech data), estimates or recognizes a command issued by the user, The recognized command (recognized command) is output as text data. In the speech recognition device 400, the commands issued by the user to the controlled object are listed in advance as text data, and the text data obtained from the received speech data is compared with the text data in the list to find the closest command in the list. to output the text data of the selected command. However, the speech recognition method in the speech recognition device 400 is not limited to this method.

また、音声認識装置400は、音声データをテキスト化(文字化、言語化など)した音声テキストを生成するSpeech To Textサーバ(以降、STTサーバと称する)と、生成された音声テキストとリスト化されたコマンドの中から最も近いコマンドを認識コマンドとして生成するリモート認識サーバから構成されていてもよい。具体的には、リモート認識サーバが、予め図示せぬ記憶部などに登録しておいたコマンドリストを参照して、STTサーバが生成した音声テキストと一致したコマンドもしくはリストの中で最も近いコマンドを認識コマンドとして、出力するようにしてもよい。 The speech recognition apparatus 400 also includes a Speech To Text server (hereinafter referred to as an STT server) that generates speech text by converting speech data into text (characterization, verbalization, etc.), and a list of generated speech texts. It may also comprise a remote recognition server that generates the closest command from among the commands received as the recognition command. Specifically, the remote recognition server refers to a command list registered in advance in a storage unit (not shown) or the like, and selects a command that matches the voice text generated by the STT server or the closest command in the list. You may make it output as a recognition command.

ネットワーク500は、受信装置10、コンテンツサーバ装置200、視聴解析装置300、視聴解析装置300が接続されて、各装置が通信可能となるネットワークであり、例えば、インターネットである。また、ネットワーク500はインターネットだけとは限らず、各装置が通信可能であれば複数の異なるネットワークを含むネットワークでもよい。 The network 500 is a network in which the receiving device 10, the content server device 200, the viewing analysis device 300, and the viewing analysis device 300 are connected so that each device can communicate with each other, such as the Internet. Also, the network 500 is not limited to the Internet, and may be a network including a plurality of different networks as long as each device can communicate.

図2は、実施形態に係る受信装置10の機能構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the functional configuration of the receiving device 10 according to the embodiment.

受信装置10は、デジタルコンテンツが重畳される信号を受信処理してデジタルコンテンツを取得して視聴する機器である。 The receiving device 10 is a device for receiving and processing a signal on which digital content is superimposed to acquire and view the digital content.

放送信号受信処理部20は、アンテナ101から受波したデジタル放送などの放送信号を、デジタル放送の規格に応じ処理し、映像、音声、文字などのコンテンツデータを取得し出力する。デジタル放送の規格は、例えば、2Kデジタル放送にて採用されているMPEG2 TS方式や、4K/8Kデジタル放送にて採用されているMPEG Media Tranport方式(MMT方式)などでもよく、複数のチューナにより双方に対応していてもよい。デジタル放送の規格に応じた処理としては、デジタルデータストリームを、映像、音声、文字などのコンテンツデータのデジタルデータストリームに分離するデマルチプレクシング処理、誤り訂正符号復号処理、暗号化されたデータを復号する暗号復号化処理、各コンテンツデータに対して施された符号化(映像符号化、音声符号化、文字符号化など)に対する復号化処理などを含む。 The broadcast signal reception processing unit 20 processes a broadcast signal such as a digital broadcast received from the antenna 101 according to the digital broadcast standard, acquires and outputs content data such as video, audio, and text. The digital broadcasting standard may be, for example, the MPEG2 TS system used in 2K digital broadcasting or the MPEG Media Transport system (MMT system) used in 4K/8K digital broadcasting. may correspond to Processing that conforms to digital broadcasting standards includes demultiplexing processing that separates a digital data stream into digital data streams of content data such as video, audio, and text, error correction code decoding processing, and decoding of encrypted data. and decoding processing for encoding (video encoding, audio encoding, character encoding, etc.) applied to each content data.

補助情報出力部21は、制御部90によって要求された情報を放送信号から抽出し、制御部90に出力する。補助情報出力部21は、特に放送信号に含まれる制御情報や番組関連情報などから要求された情報を抽出し、制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output section 21 extracts the information requested by the control section 90 from the broadcast signal and outputs it to the control section 90 . The auxiliary information output unit 21 extracts requested information from control information, program-related information, etc. included in the broadcast signal, and outputs the extracted information to the control unit 90 . The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

コンテンツ処理部30は、通信部102から入力されるデジタルデータに対して、コンテンツサーバ装置200が施した符号化処理に対する復号化処理などを実施し、映像、音声、文字などのコンテンツデータを出力する。具体的には、コンテンツ処理部30は、復号化処理として、例えば、デマルチプレクシング処理(分離処理)、誤り訂正符号復号処理、符号化されたコンテンツデータ(映像、文字、音声など)に対する復号化処理などを実施する。 The content processing unit 30 performs decoding processing for the encoding processing performed by the content server device 200 on the digital data input from the communication unit 102, and outputs content data such as video, audio, and characters. . Specifically, the content processing unit 30 performs decoding processing such as demultiplexing processing (separation processing), error correction code decoding processing, and decoding of encoded content data (video, text, audio, etc.). processing, etc.

補助情報出力部31は、コンテンツサーバ装置200が出力するデータから制御部90によって要求された情報を抽出し、制御部90に出力する。補助情報出力部31は、特にコンテンツサーバ装置200が出力する制御情報などからコンテンツ番組の配信業者など関連する属性情報などを抽出し、制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 31 extracts information requested by the control unit 90 from data output by the content server device 200 and outputs the information to the control unit 90 . The auxiliary information output unit 31 extracts related attribute information such as the content program distributor from the control information output by the content server device 200 , and outputs the information to the control unit 90 . The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

録画再生部40は、例えばディスクプレーヤやHDDレコーダなどであり、放送信号受信処理部20やコンテンツ処理部30が出力するコンテンツデータなどを記憶し、再生要求に従って、記憶したコンテンツデータを出力制御部60へ出力し、映像、文字、音声として表示部103やスピーカ部104から出力する。ユーザは、表示部103やスピーカ部104が出力する映像、文字、音声を視聴することにより、録画再生部40に記憶されたデジタルコンテンツなどを視聴する。なお、本実施形態においては、録画再生部40は、受信装置10の一機能としたが、例えば、インターフェース部105を介した外付けの装置であってもよい。また、受信装置10が複数のチューナ(放送信号受信処理部20に相当)を備えているような場合には、録画再生部40は、放送信号受信処理部20によって受信処理したコンテンツAを視聴しながら、録画再生部40で別の放送信号受信処理部20によって受信処理したコンテンツBを録画することができるようにしてもよい。 The recording/playback unit 40 is, for example, a disc player or an HDD recorder, stores content data output from the broadcast signal reception processing unit 20 and the content processing unit 30, and outputs the stored content data to the output control unit 60 in accordance with a playback request. , and output from the display unit 103 and the speaker unit 104 as video, text, and audio. The user views digital content stored in the recording/playback unit 40 by viewing video, text, and audio output from the display unit 103 and the speaker unit 104 . In this embodiment, the recording/playback unit 40 is one function of the receiving device 10, but may be an external device via the interface unit 105, for example. Further, when the receiving device 10 includes a plurality of tuners (corresponding to the broadcast signal reception processing unit 20), the recording/playback unit 40 allows the user to view the content A received and processed by the broadcast signal reception processing unit 20. However, the recording/playback unit 40 may record the content B received and processed by another broadcast signal reception processing unit 20 .

機器データ生成部50は、受信装置10の各機能部(特に放送信号受信処理部20、コンテンツ処理部、録画再生部40)からデータを収集し、視聴機器データを生成する。視聴機器データは、機器個別データと視聴データとを含む。機器個別データは、受信装置10に固有のデータであり、例えば、受信装置10を設置する際に、ユーザがリモコン100などから受信装置10に設定することでもよい。また、視聴解析で用いられる識別番号は、例えば、受信装置10の購入時などに予め割り振られて、機器個別データなどに設定されてもよい。 The equipment data generation unit 50 collects data from each functional unit (particularly, the broadcast signal reception processing unit 20, the content processing unit, and the recording/playback unit 40) of the receiving device 10 and generates audio-visual equipment data. The viewing device data includes device-specific data and viewing data. The device-specific data is data unique to the receiving device 10 , and may be set in the receiving device 10 by the user from the remote control 100 or the like, for example, when the receiving device 10 is installed. Also, the identification number used in the viewing analysis may be assigned in advance, for example, at the time of purchase of the receiving apparatus 10, and set in the device-specific data or the like.

視聴データは、例えば視聴履歴であり、受信装置10により何らかの視聴がされた場合に逐次的に生成されてもよい。具体的には、例えば、放送信号受信処理部20やコンテンツ処理部30、録画再生部40が起動されたタイミングに応じて、各機能部において、デジタルコンテンツを提供するチャンネル、番組名(またはそれに準ずる番組id)、番組を視聴した日時などを記憶し、各機能部が停止されたタイミングに応じて、各機能部は記憶したデータを視聴データとして機器データ生成部50に出力する。機器データ生成部50は、視聴データを必要に応じて加工し、受信装置10の図示せぬ記憶部に記憶する。また、各機能部(特に放送信号受信処理部20、コンテンツ処理部30、録画再生部40)がそれぞれ視聴データを記憶しておき、外部装置から視聴データの送信要求があった時に、各機能部が視聴データを機器データ生成部50に出力し、機器データ生成部50が必要に応じて視聴データに加工を施して、外部装置へ視聴機器データとして出力するようにしてもよい。 The viewing data is, for example, a viewing history, and may be sequentially generated when some viewing is performed by the receiving device 10 . Specifically, for example, according to the timing at which the broadcast signal reception processing unit 20, the content processing unit 30, and the recording/reproducing unit 40 are started, each function unit provides the channel and program name (or equivalent) that provides the digital content. program id), the date and time when the program was viewed, and the like, and each functional unit outputs the stored data as viewing data to the device data generating unit 50 according to the timing at which each functional unit is stopped. The equipment data generation unit 50 processes the viewing data as necessary, and stores it in a storage unit (not shown) of the receiving device 10 . Further, each functional unit (particularly, the broadcast signal reception processing unit 20, the content processing unit 30, and the recording/playback unit 40) stores viewing data, and each functional unit receives a transmission request for viewing data from an external device. may output the viewing data to the equipment data generating section 50, and the equipment data generating section 50 may process the viewing data as necessary and output it as the viewing equipment data to the external device.

機器データ生成部50は、生成した視聴機器データを外部装置(特に視聴解析装置300)からの要求に応じて、通信部102へ出力する。視聴機器データは、通信部102からネットワーク500を介して要求した視聴解析装置300へ送信される。また、受信装置10において、視聴機器データの変化を検知した場合に、任意のタイミングで視聴機器データを視聴解析装置300へ送信することでもよい。 The equipment data generation unit 50 outputs the generated audio-visual equipment data to the communication unit 102 in response to a request from an external device (in particular, the viewing analysis device 300). The audio-visual equipment data is transmitted from the communication unit 102 via the network 500 to the requested audio-visual analysis device 300 . Further, when the reception device 10 detects a change in the viewing device data, the viewing device data may be transmitted to the viewing analysis device 300 at an arbitrary timing.

補助情報出力部51は、機器データ生成部50が生成した視聴機器データや、受信装置10の各機能から収集した視聴データ、また、視聴解析装置300が出力する各種解析結果データを受信し、制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 51 receives audio-visual equipment data generated by the equipment data generation unit 50, audio-visual data collected from each function of the receiving device 10, and various analysis result data output by the audio-visual analysis device 300, and controls them. Output to unit 90 . The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

出力制御部60は、放送信号受信処理部20やコンテンツ処理30、録画再生部40が出力したコンテンツデータに対して出力タイミング、表示方法などを調整し、表示部103やスピーカ部104へ出力する。 The output control unit 60 adjusts the output timing, display method, etc. of the content data output by the broadcast signal reception processing unit 20 , the content processing unit 30 , and the recording/playback unit 40 , and outputs the content data to the display unit 103 and the speaker unit 104 .

状態切替部62は、表示部103の現在の表示状態(ON状態もしくはOFF状態、表示している状態もしくは表示していない状態など)やスピーカ部104の現在の出力状態(ON状態もしくはOFF状態、音声出力状態もしくは音声をミュートしている状態など)を制御部90からの制御に従って切り替える。制御部90が表示部103の表示状態やスピーカ104の出力状態を管理し、制御部90は、リモコン100やコマンド制御部1からの制御命令に従って状態切替部62を制御する。 The state switching unit 62 changes the current display state of the display unit 103 (ON state or OFF state, displayed state or non-display state, etc.) and the current output state of the speaker unit 104 (ON state or OFF state, audio output state, audio mute state, etc.) is switched according to the control from the control unit 90 . The control unit 90 manages the display state of the display unit 103 and the output state of the speaker 104 , and the control unit 90 controls the state switching unit 62 according to control commands from the remote controller 100 and the command control unit 1 .

センサ部70は、テレビ正面に設置される例えばカメラであり、テレビ装置の正面をカメラで撮影し、撮影した画像から画像認識などを用いて例えばテレビ装置の前にいるユーザを推測することでもよい。 The sensor unit 70 is, for example, a camera installed in front of the television, and may take a picture of the front of the television with the camera and use image recognition from the photographed image, for example, to guess the user in front of the television. .

補助情報出力部71は、センサ部70が推測したユーザ情報を制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 71 outputs the user information estimated by the sensor unit 70 to the control unit 90 . The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

メイン電源部80は、受信装置10のメイン機能の電源であり、例えば、テレビ装置の表示部103やスピーカ部104にデジタルコンテンツを出力したり、出力を止めたりする(この操作をテレビ装置のON-OFF操作と称する)際に使われる電源である。 The main power supply unit 80 is a power supply for the main function of the receiving device 10, and for example, outputs digital content to the display unit 103 and the speaker unit 104 of the television device, and stops the output (this operation turns on the television device). This is the power supply used during the -OFF operation.

状態切替部82は、メイン電源部80の現在の状態、すなわちテレビ装置のON-OFFの状態を制御部90からの制御に従って切り替える。制御部90がメイン電源部80の現在の状態を管理し、制御部90は、リモコン100やコマンド制御部1からの制御命令に従って状態切替部82を制御する。 The state switching unit 82 switches the current state of the main power supply unit 80 , that is, the ON/OFF state of the television apparatus, under the control of the control unit 90 . Control unit 90 manages the current state of main power supply unit 80 , and control unit 90 controls state switching unit 82 according to control commands from remote controller 100 and command control unit 1 .

制御部90は、受信装置10の各機能を制御する。具体的には、制御部90は、インターフェース部105から各種制御信号を受信し、受信装置10の各機能を制御する。例えば、ユーザが放送信号によるコンテンツを視聴するか、コンテンツサーバ装置200からのコンテンツを視聴するかをリモコン100から指定した場合に、制御部90は、インターフェース部105を介してリモコンからの制御信号を受信し、受信装置10の機能を制御し、ユーザが指定した動作をさせる。なお、図2において、制御部90との間で特に結線をしていない機能ブロックとの間においてもデータのやり取りを行うことにしてもよい。 The control unit 90 controls each function of the receiving device 10 . Specifically, the control unit 90 receives various control signals from the interface unit 105 and controls each function of the receiving device 10 . For example, when the user designates from the remote control 100 whether to view content by a broadcast signal or view content from the content server device 200, the control unit 90 receives a control signal from the remote control via the interface unit 105. It receives and controls the function of the receiving device 10 to perform the operation specified by the user. In FIG. 2, data may also be exchanged with functional blocks that are not particularly connected to the control unit 90 .

また本実施形態における制御部90は、インターフェース部105を介してコマンド制御部1からの実行コマンドを受信し、実行コマンドに従って受信装置10内の各機能の制御を実施する。 Also, the control unit 90 in this embodiment receives an execution command from the command control unit 1 via the interface unit 105, and controls each function in the receiving device 10 according to the execution command.

補助情報管理部91は、各機能内の補助情報出力部(補助情報出力部21、補助情報出力部31、補助情報出力部41、補助情報出力部51、補助情報出力部71など)が出力する補助情報を受信し、図示せぬ記憶部に記憶する。補助情報管理部91は、記憶した各機能の補助情報をインターフェース105からコマンド制御部1に送信する。 Auxiliary information management unit 91 is output by auxiliary information output units (auxiliary information output unit 21, auxiliary information output unit 31, auxiliary information output unit 41, auxiliary information output unit 51, auxiliary information output unit 71, etc.) in each function. Auxiliary information is received and stored in a storage unit (not shown). The auxiliary information management unit 91 transmits the stored auxiliary information of each function to the command control unit 1 from the interface 105 .

補助情報管理部91において記憶する情報は、予め決められた項目を各機能内の補助情報出力部に設定しておき、各機能において補助情報が更新された時点で補助情報出力部が自発的に補助情報管理部91に出力するようにしてもよい。また、補助情報管理部91が必要に応じて各機能の補助情報出力部に補助情報を要求するようにしてもよい。 For the information stored in the auxiliary information management unit 91, predetermined items are set in the auxiliary information output unit in each function, and when the auxiliary information is updated in each function, the auxiliary information output unit spontaneously You may make it output to the auxiliary information management part 91. FIG. Also, the auxiliary information management section 91 may request auxiliary information from the auxiliary information output section of each function as necessary.

状態情報管理部92は、各機能内の状態切替部(状態切替部62、状態切替部82など)の状態情報を図示せぬ記憶部に記憶する。状態情報管理部92は、インターフェース105を介して記憶した各機能の状態情報をコマンド制御部1に送信する。本実施形態においては、制御部90が、各機能の状態を制御するため、状態情報管理部92の状態情報は常に最新の状態に保たれる。なお、状態情報管理部92が記憶する情報については、予め決められた項目を各機能内の図示せぬ状態情報出力部に設定しておき、各機能において状態情報が更新された時点で状態情報出力部が自発的に状態情報管理部91に出力するようにしてもよい。また、状態情報管理部92が必要に応じて各機能の状態情報出力部に状態情報を要求するようにしてもよい。 The state information management unit 92 stores the state information of the state switching units (state switching unit 62, state switching unit 82, etc.) in each function in a storage unit (not shown). The state information management unit 92 transmits the stored state information of each function to the command control unit 1 via the interface 105 . In this embodiment, the control unit 90 controls the state of each function, so the state information of the state information management unit 92 is always kept up-to-date. For the information stored by the state information management unit 92, predetermined items are set in a state information output unit (not shown) within each function, and when the state information is updated in each function, the state information The output section may voluntarily output to the state information management section 91 . Also, the state information management section 92 may request state information from the state information output section of each function as necessary.

時刻管理部93は、受信装置10の時刻を管理する。受信装置10の内部に時計を持っていてもよいし、放送信号などから時刻を抽出して得てもよい。 The time management unit 93 manages the time of the receiving device 10 . The receiver 10 may have a clock inside, or the time may be obtained by extracting it from a broadcast signal or the like.

通信部102は、ネットワーク500に接続された各種装置と、例えばTCP/IP、UDP/IPといった予め決められた通信規約などに従ってデータの送受信処理をする。 The communication unit 102 performs data transmission/reception processing with various devices connected to the network 500 according to a predetermined communication protocol such as TCP/IP or UDP/IP.

表示部103は、映像や文字を表示する例えばモニタである。スピーカ部104は音声を出力する例えばスピーカである。表示部103、スピーカ部104は、出力制御部60が出力したコンテンツデータを映像、文字、音声として出力する。ユーザは、表示部103、スピーカ部104が出力する映像、文字、音声を視聴することにより、放送信号やコンテンツサーバ装置200、その他録画再生部40によって提供されるデジタルコンテンツを視聴する。 The display unit 103 is, for example, a monitor that displays images and characters. The speaker unit 104 is, for example, a speaker that outputs sound. The display unit 103 and the speaker unit 104 output the content data output by the output control unit 60 as video, text, and audio. The user views digital content provided by broadcast signals, content server device 200 and other recording/playback unit 40 by viewing video, text, and audio output from display unit 103 and speaker unit 104 .

インターフェース部105は、リモコン100など外部から受信装置10を制御するためのインターフェースであり、例えば、リモコン100や受信装置10に付属する図示せぬスイッチなどから制御信号を受信し、受信装置10の制御部90へ出力する。リモコン100のかわりに図示せぬスマートフォンなどの端末からの制御信号を受信するインターフェースを有してもよい。また、インターフェース部105は外部装置と接続するためのインターフェースを有してもよい。例えば、受信装置10と図示せぬ外付けのHDDレコーダを接続するためのインターフェースであってもよい。この場合、ユーザは図示せぬ外付けのHDDレコーダが出力するデジタルコンテンツを表示部103、スピーカ部104にて視聴することができる。 The interface unit 105 is an interface for controlling the receiving device 10 from the outside such as the remote controller 100 . Output to unit 90 . Instead of the remote control 100, it may have an interface for receiving a control signal from a terminal such as a smart phone (not shown). Also, the interface unit 105 may have an interface for connecting with an external device. For example, it may be an interface for connecting the receiving device 10 and an external HDD recorder (not shown). In this case, the user can view digital content output from an external HDD recorder (not shown) on the display unit 103 and speaker unit 104 .

また、本実施形態におけるインターフェース105は、コマンド制御部1のインターフェース部15と通信可能なインターフェースを有しており、例えばインターフェースは各種シリアルバスでもよい。また、インターフェース105は、コマンド制御部1が出力する実行コマンドを受信し、制御部90へ実行コマンドを出力する。 Further, the interface 105 in this embodiment has an interface capable of communicating with the interface section 15 of the command control section 1, and the interface may be various serial buses, for example. The interface 105 also receives an execution command output by the command control unit 1 and outputs the execution command to the control unit 90 .

図3は、同実施形態に係るコマンド制御部の機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of a functional configuration of a command control unit according to the embodiment;

コマンド制御部1においてコマンド生成部11は、コマンド認識部13が音声認識によって生成する認識コマンドと、補助情報取得部16や状態取得部17が取得する追加情報(補助情報と状態情報)とに基づいて、実行コマンドを生成し、コマンド送信部18からコマンド制御部1の外部に出力する。以下各機能ブロックについて説明する。 In the command control unit 1, the command generation unit 11 generates a recognition command based on the recognition command generated by the command recognition unit 13 through voice recognition, and the additional information (auxiliary information and state information) acquired by the auxiliary information acquisition unit 16 and the state acquisition unit 17. , an execution command is generated and output from the command transmission unit 18 to the outside of the command control unit 1 . Each functional block will be described below.

コマンド生成部11は、記憶部111に認識コマンドと追加情報と実行コマンドの組み合わせ(以降、条件組合わせリストと称する)を記憶している。条件組合わせリストは、予めユーザが設定することができる。条件組合わせリストはコマンド生成部11のコンピュータプログラムに組み込まれていてもよいし、例えばネットワーク500を介して外部のサーバからダウンロードしてもよい。コマンド生成部11は、認識コマンドと、追加情報とが入力されると、条件組合わせリストを参照して実行コマンドを生成し、出力する。 The command generation unit 11 stores combinations of recognition commands, additional information, and execution commands (hereinafter referred to as a condition combination list) in the storage unit 111 . The condition combination list can be set in advance by the user. The condition combination list may be incorporated in the computer program of the command generator 11, or may be downloaded from an external server via the network 500, for example. When the recognition command and the additional information are input, the command generator 11 refers to the condition combination list to generate and output an execution command.

音声検知部12は、例えばマイクロフォンであり、ユーザが発した音声を受波して、サンプリングなどにより受波した音声波形の音声データを得て、出力する。 The voice detection unit 12 is, for example, a microphone, receives voice uttered by the user, obtains voice data of the received voice waveform by sampling or the like, and outputs the voice data.

コマンド認識部13は、音声検知部12が出力する音声データから音声認識を実施し、ユーザの発したコマンドを推定もしくは認識し、認識コマンドをテキストデータとして出力する。コマンド認識部13は、音声認識を実行する音声データ処理部(音声認識エンジン)を自身でコマンド認識部13内に備えることもできるが、音声認識エンジンを備えたネットワーク500上の音声認識装置400に音声データを送信して、認識コマンドを得ることもできる。音声認識装置400を利用することで、コマンド認識部13の製造コストなどを下げることができる。また音声認識装置400が多数の受信装置10から音声データを得て音声認識を実施することにより、音声認識装置400は学習効果を得て音声認識の性能向上を図ることができるなどのメリットもある。ただし、音声認識装置400を使用するためにはネットワーク500を介するため、音声認識の処理遅延が大きいというデメリットがあり、その点、コマンド認識部13の内部の音声認識エンジンを利用する場合は音声認識の処理遅延は小さくできるメリットがある。また、図3においては、音声検知部12(スピーカ)を内蔵する例について示しているが、スマートスピーカなどを用いることでもよい。例えば、スマートスピーカはインターフェース105に接続して使用する。具体的には、音声認識エンジンを搭載したスマートスピーカが認識コマンドを生成し
コマンド制御部1(もしくはコマンド生成部11)がスマートスピーカの生成した認識コマンドを、例えば、インターフェース105を介して取得することでもよい。取得した認識コマンドはコマンド生成部11において実行コマンドの生成に用いられることでもよい。
The command recognition unit 13 performs voice recognition from voice data output by the voice detection unit 12, estimates or recognizes a command issued by the user, and outputs the recognized command as text data. The command recognition unit 13 may include a voice data processing unit (speech recognition engine) for executing voice recognition within the command recognition unit 13 itself. Voice data can also be sent to obtain recognition commands. By using the speech recognition device 400, the manufacturing cost of the command recognition section 13 can be reduced. In addition, since the speech recognition device 400 obtains speech data from a large number of receiving devices 10 and performs speech recognition, the speech recognition device 400 can obtain a learning effect and improve the performance of speech recognition. . However, in order to use the speech recognition device 400, it is necessary to use the network 500, so there is a disadvantage that the processing delay of speech recognition is large. There is an advantage that the processing delay of is small. In addition, although FIG. 3 shows an example in which the voice detection unit 12 (speaker) is incorporated, a smart speaker or the like may be used. For example, a smart speaker is used by connecting to the interface 105 . Specifically, a smart speaker equipped with a voice recognition engine generates a recognition command, and the command control unit 1 (or the command generation unit 11) acquires the recognition command generated by the smart speaker via, for example, the interface 105. It's okay. The acquired recognition command may be used by the command generation unit 11 to generate an execution command.

ユーザインターフェース部14は、例えばパソコンのキーボードなどのように文字入力できるインターフェースである。具体的にはユーザはユーザインターフェース部14から、記憶部111に条件組合わせリストを設定する。なお、リモコン100やスマートフォンなどを用いて、条件組合わせリストを記憶部111に設定することにしてもよい。また、コマンド生成部11が受信装置10の外部に設置された図示せぬ条件組合わせリストを提供するサーバから記憶部111に条件組合わせリストをダウンロードすることでもよい。 The user interface unit 14 is an interface, such as a keyboard of a personal computer, through which characters can be input. Specifically, the user sets the condition combination list in the storage unit 111 from the user interface unit 14 . Note that the condition combination list may be set in the storage unit 111 using the remote control 100, smartphone, or the like. Alternatively, the command generation unit 11 may download the condition combination list to the storage unit 111 from a server (not shown) provided outside the receiving device 10 that provides the condition combination list.

インターフェース部15は、インターフェース部105と各種データ通信をする。具体的には、インターフェース部15は、インターフェース部105から補助情報や状態情報を受信する。また、インターフェース部15は、インターフェース部105に対してコマンド生成部11の生成した実行コマンドを送信する。 The interface unit 15 performs various data communications with the interface unit 105 . Specifically, the interface unit 15 receives auxiliary information and status information from the interface unit 105 . Also, the interface unit 15 transmits the execution command generated by the command generation unit 11 to the interface unit 105 .

補助情報取得部16は、補助情報管理部91からインターフェース部15を介して補助情報を取得する。補助情報取得部16は、例えばコマンド認識部13から認識コマンドが出力されるタイミングに応じて、補助情報管理部91に対して補助情報の取得要求を出力し、補助情報管理部91から補助情報を取得してもよい。 The auxiliary information acquisition unit 16 acquires auxiliary information from the auxiliary information management unit 91 via the interface unit 15 . For example, the auxiliary information acquisition unit 16 outputs an acquisition request for auxiliary information to the auxiliary information management unit 91 in accordance with the timing at which the recognition command is output from the command recognition unit 13, and receives the auxiliary information from the auxiliary information management unit 91. may be obtained.

状態取得部17は、状態情報管理部92からインターフェース部15を介して状態情報を取得する。例えばコマンド認識部13が認識コマンドを出力するタイミングもしくはコマンド生成部11が認識コマンドを受信するタイミングに応じて、状態情報取得部16が状態情報管理部92に対して状態情報の取得要求を出力し、状態情報管理部92から状態情報を取得してもよい。 The state acquisition unit 17 acquires state information from the state information management unit 92 via the interface unit 15 . For example, the state information acquisition unit 16 outputs a state information acquisition request to the state information management unit 92 in accordance with the timing at which the command recognition unit 13 outputs the recognition command or the timing at which the command generation unit 11 receives the recognition command. , the state information may be acquired from the state information management unit 92 .

コマンド送信部18は、コマンド生成部11が生成し、出力した実行コマンドをインターフェース部15から制御部90へ送信する。また、通信部102を介してネットワーク500上の装置や機器に送信することもできる。 The command transmission unit 18 transmits the execution command generated and output by the command generation unit 11 from the interface unit 15 to the control unit 90 . Also, it can be transmitted to a device or device on the network 500 via the communication unit 102 .

制御部19は、コマンド制御部1内の各機能ブロックを制御する。なお、図3において、制御部19との間で特に結線をしていない機能ブロックとの間においてもデータのやり取り(制御)を行うことにしてもよい。 The control section 19 controls each functional block within the command control section 1 . In FIG. 3, data exchange (control) may also be performed between functional blocks that are not particularly connected to the control unit 19 .

音声分析部121は、音声検知部12から出力される音声データに対して、例えば周波数分析(声紋分析)を実施し、大人子供、年齢、性別など音声源の属性を推測して音声源推測結果を得る。音声分析部121は、音声源推測結果に対して必要な加工を施して補助情報として補助情報取得部16に出力する。また音声分析部121により得られる音声源推測結果は、コマンド生成部11、コマンド認識部13、コマンド送信部18などの起動の可否にも利用することができる。音声源推測結果により、例えば音声を発したユーザが子供である場合に、実行コマンドを出力させないようにするために、音声分析部121が音声源推測結果を制御部19に出力すると、制御部19はコマンド生成部11、コマンド認識部13、コマンド送信部18の機能を有効にしたり無効にしたりすることでもよい。 The voice analysis unit 121 performs, for example, frequency analysis (voiceprint analysis) on the voice data output from the voice detection unit 12, estimates the attributes of the voice source such as adult/child, age, and gender, and outputs the result of voice source estimation. get The speech analysis unit 121 performs necessary processing on the speech source estimation result and outputs the result as auxiliary information to the auxiliary information acquisition unit 16 . The speech source estimation result obtained by the speech analysis unit 121 can also be used to determine whether the command generation unit 11, the command recognition unit 13, the command transmission unit 18, etc. can be activated. When the voice analysis unit 121 outputs the voice source estimation result to the control unit 19 so as not to output an execution command when, for example, the user who uttered the voice is a child, the control unit 19 may enable or disable the functions of the command generation unit 11, the command recognition unit 13, and the command transmission unit 18.

図4は、同実施形態において、音声コマンドにより制御できる制御対象部位と制御対象部位の状態の一例を示す図である。 FIG. 4 is a diagram showing an example of a control target part that can be controlled by a voice command and the state of the control target part in the same embodiment.

左の列から、「NO」、「制御対象部位」、「取りうる状態値」、「音声コマンド」を示している。「制御対象部位」は、音声コマンドにより制御できる受信装置10の部位である。「取りうる状態値」は、「制御対象部位」の取りうる状態である。「音声コマンド」は、「制御対象部位」に対して状態値を切り替える際に、ユーザが発声する制御命令である。 From the left column, "NO", "control target part", "possible state value", and "voice command" are shown. A “control target part” is a part of the receiving device 10 that can be controlled by a voice command. The "possible state value" is a state that the "controlled part" can take. "Voice command" is a control command uttered by the user when switching the state value of the "control target part".

「NO」=1は、受信装置10の「制御対象部位」であるメイン電源部80の「取りうる状態値」がONとOFFの2状態であることを示す。この場合、状態値を切り替えるための「音声コマンド」は、状態値をONにする場合は「電源ON」であり、状態値をOFFにする場合は「電源OFF」である。すなわち、テレビ装置の電源をONにするためは、ユーザは「電源ON」と発声し、テレビ装置の電源はOFFにするためには、ユーザは「電源OFF」と発声する。 "NO"=1 indicates that the "possible state values" of the main power supply unit 80, which is the "control target part" of the receiving device 10, are two states of ON and OFF. In this case, the "voice command" for switching the state value is "power ON" to turn the state value ON, and "power OFF" to turn the state value OFF. That is, the user utters "power ON" to turn on the power of the television device, and the user utters "power OFF" to turn off the power of the television device.

「NO」=2は、受信装置10の「制御対象部位」である出力制御部60の状態切替部62の「取りうる状態値」がONとOFFの2状態であることを示す。すなわち、テレビ装置の音量をONにしてスピーカ部104から音声を出力させるためには、ユーザは「音量ON」と発声し、テレビ装置の音量はOFFにしてスピーカ部104から音声が出力されなくする(ミュートする)ためには、ユーザは「音量OFF」と発声する。 “NO”=2 indicates that the “possible state values” of the state switching unit 62 of the output control unit 60, which is the “part to be controlled” of the receiving device 10, are ON and OFF. That is, in order to output sound from the speaker unit 104 by turning on the volume of the television device, the user utters "volume on" and turns off the volume of the television device so that the sound is not output from the speaker unit 104. To (mute), the user says "volume off".

「NO」=3は、デジタルコンテンツを表示部103やスピーカ部104に出力している状態にあるコンテンツ出力装置である。コンテンツ出力装置は、放送信号受信処理部20、コンテンツ処理部30、録画再生部40の総称である。具体的には、「取りうる状態値」の列における「チューナ」が放送信号受信処理部20、「ネット」がコンテンツ処理部30、「レコーダ」が録画再生部40にそれぞれ相当する。例えば、放送信号受信処理部20を受信状態にして放送信号によるコンテンツを表示部103、スピーカ部104に出力させるためには、ユーザは「チューナ」と発声する。コンテンツ処理部30を受信状態にして表示部103、スピーカ部104にコンテンツサーバ装置200からのコンテンツを出力させるためには、ユーザは「ネット」と発声する。録画再生部40を再生状態にして表示部103、スピーカ部104に出力させるためには、ユーザは「レコーダ」と発声する。 “NO”=3 is a content output device that is outputting digital content to the display unit 103 and the speaker unit 104 . A content output device is a general term for the broadcast signal reception processing unit 20, the content processing unit 30, and the recording/playback unit 40. FIG. Specifically, "tuner" in the "possible state value" column corresponds to the broadcast signal reception processing unit 20, "net" corresponds to the content processing unit 30, and "recorder" corresponds to the recording/playback unit 40, respectively. For example, in order to set the broadcast signal reception processing unit 20 to the receiving state and cause the display unit 103 and the speaker unit 104 to output content based on the broadcast signal, the user utters "tuner". In order to set the content processing unit 30 to the reception state and cause the display unit 103 and the speaker unit 104 to output the content from the content server device 200, the user utters "net". In order to set the recording/reproducing unit 40 to the reproducing state and output to the display unit 103 and the speaker unit 104, the user utters "recorder".

「NO」=4は、デジタルコンテンツを表示部103やスピーカ部104に出力している状態にあるチューナである。「取りうる状態値」のBS、CS、地デジは、それぞれBSデジタル放送、CSデジタル放送、地上デジタルテレビジョン放送(地デジ放送)のチューナを示している。例えば、BSデジタル放送を受信状態にして表示部103、スピーカ部104にBSデジタル放送のコンテンツを出力させるためには、ユーザは「BS」と発声する。CSデジタル放送を受信状態にして表示部103、スピーカ部104にCSデジタル放送のコンテンツを出力させるためには、ユーザは「CS」と発声する。地デジ放送を受信状態にして表示部103、スピーカ部104に地デジ放送のコンテンツを出力させるためには、ユーザは「地デジ」と発声する。 “NO”=4 indicates a tuner that is outputting digital content to the display unit 103 and the speaker unit 104 . BS, CS, and terrestrial digital in "possible state values" indicate tuners for BS digital broadcasting, CS digital broadcasting, and digital terrestrial television broadcasting (digital terrestrial broadcasting), respectively. For example, in order to cause the display unit 103 and the speaker unit 104 to output the contents of the BS digital broadcast in the reception state of the BS digital broadcast, the user utters "BS". In order to cause the display unit 103 and the speaker unit 104 to output the contents of the CS digital broadcast in the state of receiving the CS digital broadcast, the user utters "CS". In order to set the terrestrial digital broadcasting to the reception state and cause the display unit 103 and the speaker unit 104 to output the content of the terrestrial digital broadcasting, the user utters "terrestrial digital broadcasting".

「NO」=5は、コンテンツ出力装置が表示部103やスピーカ部104に出力しているチャネル(番組)である。「取りうる状態値」の1ch、2ch、3chはチャネル番号を示している。例えば、1chを受信状態にして表示部103、スピーカ部104に1chの番組を出力させる場合は、ユーザが「1ch」と発声する。他のチャネルについても同様である。なお、チャネルは通常、コンテンツ出力装置ごとかつチューナごとに定義されることでもよい。例えばコンテンツ出力装置を放送信号受信処理部20とする場合は、チューナ「BS」、「CS」、「地デジ」ごとにチャネル番号が割り振ることでもよい。また、コンテンツ出力装置のすべてのチャネルに対して統一的に固有のチャネル番号を割り振ってもよい。その場合は、そのチャネル番号によって、コンテンツ出力装置の種類、チューナの種類を特定できる。 “NO”=5 is the channel (program) output to the display unit 103 and the speaker unit 104 by the content output device. 1ch, 2ch, and 3ch of "possible state values" indicate channel numbers. For example, when the display unit 103 and the speaker unit 104 are to output a program on the 1ch while the 1ch is in the receiving state, the user utters "1ch". The same is true for other channels. It should be noted that a channel may normally be defined for each content output device and for each tuner. For example, when the broadcast signal reception processing unit 20 is used as the content output device, channel numbers may be assigned to tuners "BS", "CS", and "terrestrial digital". Also, a unique channel number may be uniformly assigned to all channels of the content output device. In that case, the type of content output device and the type of tuner can be specified by the channel number.

また「取りうる状態値」として、「ホーム(帰る場所)」という状態を持つことでもよい。「ホーム」は、ユーザが設定できる状態値である。 It is also possible to have a state of "home (place to return)" as a "possible state value". "Home" is a state value that can be set by the user.

例えば、NO3の例において、制御対象部位であるコンテンツ出力装置の「ホーム」状態値として「チューナ」を設定した場合について説明する。例えば、ユーザがコンテンツ出力装置「ネット」の番組を視聴中に、すなわちコンテンツ出力装置の現状態が「ネット」である時に、ユーザが音声コマンドとして「ネット」と発声するなどして、コマンド認識部13において認識コマンドとして「ネット」が認識、生成されたとする。コマンド生成部11は、認識コマンドが入力されると、「ホーム」である「チューナ」に状態を切り替えるための実行コマンド「チューナ」を生成、送信し、コンテンツ出力装置を「チューナ」に切り替える。 For example, in the example of No. 3, a case where "tuner" is set as the "home" state value of the content output device, which is the part to be controlled, will be described. For example, while the user is watching a program on the content output device "NET", that is, when the current state of the content output device is "NET", the user utters "NET" as a voice command, and the command recognition unit 13, "net" is recognized and generated as a recognition command. When the recognition command is input, the command generation unit 11 generates and transmits an execution command "tuner" for switching the state to "home" or "tuner", and switches the content output device to the "tuner".

例えば、NO4の例において、制御対象部位であるチューナの「ホーム」状態値として「地デジ」を設定した場合について説明する。例えば、ユーザが「BS」のチューナを視聴中に、すなわちチューナの現状態が「BS」である時に、ユーザが音声コマンドとして「BS」と発声するなどして、コマンド認識部13において認識コマンドとして「BS」が認識、生成されたとする。コマンド生成部11は、認識コマンドが入力されると、「ホーム」である「地デジ」に状態を切り替えるための実行コマンド「地デジ」を生成、送信し、チューナを「地デジ」に切り替える。 For example, in the example of NO4, a case will be described where "terrestrial digital broadcasting" is set as the "home" state value of the tuner, which is the part to be controlled. For example, while the user is listening to the tuner of "BS", that is, when the current state of the tuner is "BS", the user utters "BS" as a voice command, and the command recognizer 13 recognizes Assume that "BS" is recognized and generated. When the recognition command is input, the command generation unit 11 generates and transmits an execution command "digital terrestrial" for switching the state to "digital terrestrial" which is "home", and switches the tuner to "digital terrestrial".

NO5の例において、制御対象部位であるチャネルの「ホーム」状態値として「1ch」を設定した場合について説明する。例えば、ユーザが「2ch」のチャネルを視聴中に、すなわちチャネルの現状態が「2ch」である時に、ユーザが音声コマンドとして「2ch」と発声するなどして、コマンド認識部13において認識コマンドとして「2ch」が認識、生成されたとする。コマンド生成部11は、認識コマンドが入力されると、「ホーム」である「1ch」に状態を切り替えるための実行コマンド「1ch」を生成、送信し、チャネルを「1ch」に切り替える。 In the example of NO5, the case where "1ch" is set as the "home" state value of the channel which is the controlled part will be described. For example, while the user is viewing the channel "2ch", that is, when the current state of the channel is "2ch", the user utters "2ch" as a voice command, and the command recognizer 13 recognizes Assume that "2ch" is recognized and generated. When the recognition command is input, the command generator 11 generates and transmits an execution command "1ch" for switching the state to "home" or "1ch", and switches the channel to "1ch".

なお、上記の「ホーム」状態値への設定は、ユーザが設定してもよいし、前回テレビ装置の電源をOFFにする直前の状態値が自動設定されることでもよい。また、音声コマンドとして「ホーム」があってもよい。例えば、ユーザが音声コマンドを「ホーム」と発声し、「ホーム」が認識コマンドとして生成されると、「ホーム」として設定された状態値に状態が移ることでもよい。 The "home" state value may be set by the user, or may be automatically set to the state value immediately before the power of the television set was turned off last time. Also, there may be "home" as a voice command. For example, when the user utters the voice command "home" and "home" is generated as a recognized command, the state may transition to the state value set as "home".

図5は、同実施形態において、利用可能な補助情報の一例を示す図である。 FIG. 5 is a diagram showing an example of auxiliary information that can be used in the same embodiment.

左の列から、「NO」、「情報源」、「補助情報」、「情報値」を示している。「情報源」は、「補助情報」の発信源もしくは「補助情報」の抽出元(抽出した部位)である。「補助情報」は、本実施形態においてコマンド制御部1が実行コマンドを作成する場合に利用する情報である。「情報値」は「補助情報」の値である。 From the left column, "NO", "information source", "auxiliary information", and "information value" are shown. The "information source" is the source of the "auxiliary information" or the extraction source (extracted part) of the "auxiliary information". "Auxiliary information" is information used when the command control unit 1 creates an execution command in this embodiment. "Information value" is the value of "auxiliary information".

「NO」=1は、「情報源」である受信装置10の時刻管理部93が、時刻を補助情報に含めることを示している。 "NO"=1 indicates that the time management unit 93 of the receiving device 10, which is the "information source", includes the time in the auxiliary information.

「NO」=2は、「情報源」である受信装置10の音声分析部121が実施する音声分析により得られる声紋から、音声の発信源の属性を決定し、音声の発信源の属性を補助情報に含めることを示している。音声の発信源の属性は、例えば、発信源の年齢や、年齢により定義した大人子供の分類、また年齢により定義した幼児、幼稚園児、小学生、中学生、高校生、大学生、社会人などの分類であるユーザ識別情報である。 "NO" = 2 determines the attribute of the voice transmission source from the voiceprint obtained by the voice analysis performed by the voice analysis unit 121 of the receiving device 10, which is the "information source", and assists the attribute of the voice transmission source. Indicates inclusion in the information. The attributes of the source of voice are, for example, the age of the source, the classification of adults and children defined by age, and the classification of infants, kindergarten children, elementary school students, junior high school students, high school students, university students, working people, etc. defined by age. User identification information.

「NO」=3は、「情報源」である受信装置10のコマンド認識部13が実施する音声認識により得られる音声認識結果から、ユーザ識別情報を決定し、ユーザ識別情報の属性を補助情報に含めることを示している。 "NO" = 3 determines the user identification information from the speech recognition result obtained by the speech recognition performed by the command recognition unit 13 of the receiving device 10, which is the "information source", and converts the attribute of the user identification information into the auxiliary information. indicates inclusion.

「NO」=4、5、6は、それぞれ「情報源」である受信装置10の音声分析部121が実施する音声分析により得られる声の強さ、声の高さ、声の速さから、それぞれ補助情報として声の強さの強弱、声の高さの高低、声の速さの遅速を提供することを示している。 "NO" = 4, 5, 6 are obtained from voice strength, voice pitch, and voice speed obtained by voice analysis performed by the voice analysis unit 121 of the receiving device 10, which is the "information source", respectively. Each indicates that the strength of the voice, the pitch of the voice, and the speed of the voice are provided as auxiliary information.

「NO」=7は、「情報源」である受信装置10のセンサ部70(例えばカメラ)が、カメラで取得した画像認識結果から、ユーザ識別情報を決定し、ユーザ識別情報の属性を補助情報に含めることを示している。 "NO" = 7 means that the sensor unit 70 (for example, a camera) of the receiving device 10, which is the "information source", determines the user identification information from the image recognition result obtained by the camera, and converts the attribute of the user identification information into the auxiliary information. indicates that it should be included in

「NO」=8から11は、それぞれ「情報源」である受信装置10の放送信号受信処理部20が放送信号から抽出した「放送事業者」、「番組放送時間帯」、「番組種類」、「番組名」を補助情報に含めることを示している。「放送事業者」の場合は、例えば業者A、業者B、業者Cなどの業者の名称を補助情報の値とする。「番組放送時間帯」の場合は、放送時間帯を補助情報の値とする。「番組種類」の場合は、例えばドラマ、スポーツ、音楽、ニュース、教育、緊急情報など番組の種類を補助情報の値とする。「番組名」の場合は、例えば番組A、番組B、番組Cなどの番組の名称を補助情報の値とする。 "NO" = 8 to 11 are "broadcaster", "program broadcasting time period", "program type", This indicates that the "program name" is included in the auxiliary information. In the case of "broadcaster", the name of the vendor such as vendor A, vendor B, and vendor C is set as the value of the auxiliary information. In the case of "program broadcasting time zone", the broadcasting time zone is set as the value of the auxiliary information. In the case of "type of program", the value of auxiliary information is the type of program such as drama, sports, music, news, education, and emergency information. In the case of "program name", for example, program names such as program A, program B, and program C are set as auxiliary information values.

「NO」=12は、「情報源」である視聴解析装置300が提供する解析結果により得られるデモグラを情報補助に含める。 "NO"=12 includes the demogram obtained from the analysis result provided by the viewing analysis device 300, which is the "information source", in the information assistance.

「NO」=13から16は、それぞれ「情報源」である受信装置10の録画再生部20(外付けのレコーダなども含めてよい)が番組を録画した際に放送波から抽出した「放送事業者」、「番組放送時間帯」、「番組種類」、「番組名」を補助情報に含めることを示している。 "NO" = 13 to 16 are "broadcasting business This indicates that the auxiliary information includes "person", "program broadcasting time period", "program type", and "program name".

「NO」=17から20は、それぞれ「情報源」である受信装置10のコンテンツサーバ装置200が送信するコンテンツに付随する情報から抽出した「配信事業者」、「番組放送時間帯」、「番組種類」、「番組名」を補助情報に含めることを示している。またデジタルコンテンツを録画したユーザ(特に録画管理者と称する)を補助情報に含めてよい。 "NO" = 17 to 20 are "distributor", "program broadcast time zone", and "program This indicates that "type" and "program name" are included in the auxiliary information. Also, the auxiliary information may include the user who recorded the digital content (especially referred to as the recording manager).

(第1の実施形態)
本実施形態においては、ユーザが発した音声コマンドと追加情報に基づいて、受信装置のメイン電源のON-OFFを制御する場合の動作例について示す。
(First embodiment)
In this embodiment, an operation example in which ON/OFF of the main power supply of the receiving apparatus is controlled based on a voice command issued by the user and additional information will be described.

図6は、同実施形態において、コマンド制御部が音声コマンドを受信して実行コマンドを送信するための処理動作例を示すフローチャートである。 FIG. 6 is a flowchart showing a processing operation example for the command control unit to receive a voice command and transmit an execution command in the same embodiment.

ユーザは、受信装置10のメイン電源のON-OFFを制御するために、音声コマンド「電源ON」もしくは「電源OFF」を発したとする。音声検知部が音声を検知する(ステップS11のYES)。音声検知部が音声を検知しない場合は、検知するまで待つ(ステップS11のNO)。音声検知部が音声を検知するまたは検知しないという判断は、例えば、入力される音声の強度に対して閾値を設定して、閾値以上であれば音声が検知されたと判断し、閾値未満であれば音声は検知されていないと判断してもよい。 Assume that the user issues a voice command “power ON” or “power OFF” in order to control ON/OFF of the main power of the receiving device 10 . The voice detection unit detects voice (YES in step S11). If the voice detection unit does not detect the voice, it waits until it detects the voice (NO in step S11). Judgment whether the sound detection unit detects or does not detect sound is, for example, by setting a threshold for the intensity of the input sound, determining that the sound is detected if the intensity is equal to or greater than the threshold, and determining that the sound is detected if the intensity is less than the threshold. It may be determined that no sound is detected.

音声検知部12は、受波した音声の音声データを音声分析部121に出力し、音声分析部121は、受信した音声データに対して音声分析処理を行う(ステップS12)。具体的には、音声分析部121は、音声データに対して周波数分析(声紋分析)を行い、音声の発信源の属性を推測する。 The voice detection unit 12 outputs voice data of the received voice to the voice analysis unit 121, and the voice analysis unit 121 performs voice analysis processing on the received voice data (step S12). Specifically, the voice analysis unit 121 performs frequency analysis (voiceprint analysis) on voice data to estimate the attribute of the source of the voice.

音声分析部121が推測結果を制御部19に出力すると、制御部19は、推測結果から認識コマンドの生成をするか否かを判断する(ステップS13)。認識コマンドの生成可否の判断規則については、ユーザがユーザインターフェース部14から、例えば記憶部111に設定してもよい。制御部19は、記憶部111にアクセスして認識コマンドの生成の判断規則を参照する。制御部19は、認識コマンドの生成を実施すると判断した場合、コマンド認識部13に、音声データに対する音声認識を実行させる(ステップS13のYES)。制御部19は、認識コマンドの生成を実施しないと判断した場合、コマンド認識部13に、音声データに対する音声認識をさせないように制御し、コマンド認識部13を次の音声を検知するまで待ち状態とする(ステップS13のNO、S11)。制御部19は、認識コマンドの生成を実施しないと判断した場合、例えば表示部103やスピーカ部104に「認識コマンドの生成がされませんでした」などのメッセージを出力させて、ユーザに通知することでもよい。 When the speech analysis unit 121 outputs the estimation result to the control unit 19, the control unit 19 determines whether or not to generate a recognition command from the estimation result (step S13). The rules for determining whether or not to generate the recognition command may be set by the user, for example, in the storage unit 111 from the user interface unit 14 . The control unit 19 accesses the storage unit 111 and refers to the determination rule for recognition command generation. When determining to generate a recognition command, the control unit 19 causes the command recognition unit 13 to perform voice recognition on the voice data (YES in step S13). When the control unit 19 determines not to generate a recognition command, it controls the command recognition unit 13 so as not to perform voice recognition on the voice data, and puts the command recognition unit 13 into a waiting state until the next voice is detected. (NO in step S13, S11). When the control unit 19 determines not to generate the recognition command, for example, the display unit 103 or the speaker unit 104 outputs a message such as "Recognition command was not generated" to notify the user. It's okay.

コマンド認識部13は、制御部19から認識コマンドの生成を命令されると、音声認識により、認識コマンドをテキストデータとして得る。コマンド認識部13は、認識コマンドをコマンド生成部11に出力する(ステップS14)。ステップS14においてコマンド認識部13は、まずコマンド認識部13内に備える音声認識エンジンで認識コマンドの取得を試みて、音声認識に失敗して取得されなかった場合に、より音声認識の認識率の高い外部の音声認識装置400を利用して認識コマンドの取得をするようにしてもよい。 When commanded by the control unit 19 to generate a recognition command, the command recognition unit 13 obtains the recognition command as text data by voice recognition. The command recognition unit 13 outputs the recognition command to the command generation unit 11 (step S14). In step S14, the command recognition unit 13 first attempts to acquire a recognition command with the voice recognition engine provided in the command recognition unit 13, and if the voice recognition fails and is not acquired, the recognition rate of voice recognition is higher. An external speech recognition device 400 may be used to obtain recognition commands.

コマンド生成部11は、コマンド認識部13から認識コマンドを受信すると、記憶部111の条件組合わせリストを参照する。 Upon receiving the recognition command from the command recognition unit 13 , the command generation unit 11 refers to the condition combination list in the storage unit 111 .

図7は、同実施形態において、メイン電源を制御するためにコマンド制御部に設定する実行コマンド生成条件(組合せ条件リスト)の一例を示す図である。 FIG. 7 is a diagram showing an example of execution command generation conditions (combination condition list) set in the command control unit for controlling the main power supply in the embodiment.

組合せ条件リストの例は、左の列から、「NO」、「実行コマンド」、「認識コマンド」、「状態情報」、「補助情報」を示している。各行ごとに記載されている「認識コマンド」と、「状態情報」と、「補助情報」とを条件として、同一行に記載されている「実行コマンド」が決定されることを示している。「認識コマンド」は、コマンド認識部13が生成し、出力する認識コマンドである。組合せ条件リストは、例えば、ユーザがユーザインターフェース部14から記憶部111に設定することでもよい。図7に示した組合せ条件リストは一例であり、補助情報の数(列の数)はさらに追加することも可能である。 An example of the combination condition list indicates "NO", "execution command", "recognition command", "status information", and "auxiliary information" from the left column. The "execution command" described in the same line is determined based on the "recognition command", "status information", and "auxiliary information" described in each line. A “recognition command” is a recognition command generated and output by the command recognition unit 13 . The combination condition list may be set in the storage unit 111 from the user interface unit 14 by the user, for example. The combination condition list shown in FIG. 7 is an example, and the number of pieces of auxiliary information (the number of columns) can be added.

図6に戻り、コマンド制御部1の処理動作を説明する。コマンド生成部11は、コマンド認識部13から「認識コマンド」として例えば「電源ON」が入力されると、組合せ条件リストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の項目である「時刻」、「声の強さ」、「ユーザ識別情報」を補助情報管理部91に要求し、取得し、コマンド生成部11に出力する(ステップS15)。状態情報取得部17は、「認識コマンド」が「電源ON」であることから制御対象がメイン電源80であることを把握し、状態情報管理部92に対してメイン電源80の状態情報を取得し、コマンド生成部11に出力する(ステップS16)。 Returning to FIG. 6, the processing operation of the command control section 1 will be described. When the command recognizing unit 13 inputs, for example, "power ON" as the "recognition command", the command generating unit 11 refers to the combination condition list and determines the column items of the list, ie, "auxiliary information" and "state information". The auxiliary information acquisition unit 16 and the state information acquisition unit 17 are instructed to acquire the information. The auxiliary information acquisition unit 16 requests the auxiliary information management unit 91 to acquire the auxiliary information items of the combination condition list, namely, “time”, “voice strength”, and “user identification information”. (step S15). The state information acquisition unit 17 recognizes that the control target is the main power supply 80 because the “recognition command” is “power ON”, and acquires the state information of the main power supply 80 to the state information management unit 92 . , to the command generator 11 (step S16).

コマンド生成部11は、組合せ条件リストを参照して、取得した補助情報と、状態情報と、認識コマンドとが、組合せ条件リストの条件の組合せと一致する行を探す。条件の組合せが一致する行に「実行コマンド」の項目にコマンドがある場合は、「実行コマンド」の項目に記載されているコマンドを実行コマンドとして生成し、コマンド送信部18へ出力する(ステップS17,S18のYES,S19)。一方、例えば、図7のNO7のように、条件の組合せが一致する「実行コマンド」の項目が「送信なし」となっている場合は、実行コマンドの生成はせず、コマンド制御部1は次の音声が検知されるのを待つ(ステップS17,S18のNO)。実行コマンドが「送信なし」の場合、コマンド制御部1は、「実行コマンドが送信されなかったまたは生成されなかった」という意味を含むメッセージを制御部90に送信してもよい。メッセージを受信した制御部90は、表示部103にてメッセージを表示させたり、スピーカ部104からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。 The command generation unit 11 refers to the combination condition list to search for a line in which the acquired auxiliary information, status information, and recognition command match the combination of conditions in the combination condition list. If there is a command in the "execution command" item in the line where the combination of conditions matches, the command described in the "execution command" item is generated as an execution command and output to the command transmission unit 18 (step S17). , YES in S18, S19). On the other hand, for example, like NO7 in FIG. 7, when the item of "execution command" that matches the combination of conditions is "no transmission", no execution command is generated, and the command control unit 1 proceeds to the next step. is detected (NO in steps S17 and S18). If the execution command is “not sent”, the command control unit 1 may send a message to the control unit 90 that means “the execution command was not sent or was not generated”. Upon receiving the message, the control unit 90 may display the message on the display unit 103 or output a voice including the content of the message from the speaker unit 104 to notify the user.

また、条件の組合せが一致する「実行コマンド」の項目が「送信なし」の場合、コマンド制御部1は、「現状態を維持するための実行コマンド」を生成、送信することでもよい。例えば、音声分析部121による音声コマンドの声紋分析の結果、ユーザ識別情報として音声の発信源が「子供」である補助情報がコマンド生成部11に入力された場合、認識コマンドを用いずに、補助情報のみで「現状態を維持するための実行コマンド」を生成し、送信することでもよい。この場合、コマンド生成部11は、「その操作はできません」などという意味を含むメッセージを制御部90に送信してもよい。その際、メッセージを受信した制御部90は、表示部103にてメッセージを表示させたり、スピーカ部104からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。 Further, when the item of "execution command" matching the combination of conditions is "no transmission", the command control unit 1 may generate and transmit an "execution command for maintaining the current state". For example, as a result of the voiceprint analysis of the voice command by the voice analysis unit 121, when auxiliary information indicating that the source of the voice is “child” is input to the command generation unit 11 as the user identification information, the auxiliary information is input to the command generation unit 11 without using the recognition command. An "execution command for maintaining the current state" may be generated and transmitted using only information. In this case, the command generation unit 11 may send a message to the control unit 90 with a meaning such as "that operation cannot be performed." At this time, the control unit 90 that has received the message may display the message on the display unit 103 or output a voice including the content of the message from the speaker unit 104 to notify the user.

コマンド送信部18は、実行コマンドが入力されたら、インターフェース部15を介して、実行コマンドを制御部90に送信する(ステップS101)。制御部90は、受信した実行コマンドに従って、制御対象の機能を制御する。 When the execution command is input, the command transmission section 18 transmits the execution command to the control section 90 via the interface section 15 (step S101). The control unit 90 controls the functions to be controlled according to the received execution commands.

コマンド制御部1は、実行コマンドを生成もしくは送信した場合に、「実行コマンドを送信した」という内容を含んだメッセージを制御部90に送信してもよい。また、コマンド制御部1は、認識コマンドと生成した実行コマンドが異なる場合に「実行コマンドが認識コマンドと異なる」内容を含んだメッセージを制御部90に送信することでもよい。コマンド制御部1では、表示部103にメッセージを表示させたり、スピーカ部104からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。このようにすることで、ユーザは自身が発した音声コマンドが正しく実行されているかを確認することができる。 When the command control unit 1 generates or transmits the execution command, the command control unit 1 may transmit to the control unit 90 a message containing the content of "the execution command has been transmitted." Further, when the recognition command and the generated execution command are different, the command control section 1 may transmit a message including the content "the execution command is different from the recognition command" to the control section 90 . The command control unit 1 may notify the user by displaying a message on the display unit 103 or by outputting a voice including the content of the message from the speaker unit 104 . By doing so, the user can confirm whether the voice command issued by the user is correctly executed.

再び、図7を用いて、組合せ条件リストについて詳細を説明する。 Details of the combination condition list will be described again with reference to FIG.

「NO」=1の場合、補助情報が全て「-」であるが、これは補助情報を用いないことを示しており、コマンド生成部11が状態情報と認識コマンドのみで実行コマンドを生成する例である。「NO」=1の例では、「認識コマンド」が「電源ON」であり、「状態情報」が「ON」である時に、実行コマンドは「電源OFF」とする。「NO」=2から4については同様であるので説明は省略する。 When "NO" = 1, the auxiliary information is all "-", which indicates that the auxiliary information is not used. is. In the example of "NO"=1, when the "recognition command" is "power ON" and the "state information" is "ON", the execution command is "power OFF". Since "NO"=2 to 4 are the same, the explanation is omitted.

「NO」=5の場合、「認識コマンド」が「電源ON」であり、「状態情報」が「ON」であり、1つ目の「補助情報」である「時刻」が「昼」であり、2つ目の「補助情報」である「声の強さ」が「強」である時に、実行コマンドは「送信なし(もしくは生成しない)」とする例である。ここで「補助情報」である「時刻」の値を「昼」としているが、例えば、補助情報取得部16が時刻と時刻分類値(朝、昼、夜)との対応関係を持っており、補助情報取得部16が取得した「時刻」から対応する時刻分類値を判定し、時刻分類値(NO=5の場合、昼)をコマンド生成部11に出力するようにしてもよい。2つ目の「補助情報」である「声の強さ」についても同様である。例えば、補助情報取得部16が音声分析部121から入力される「音声の強度」と強度分類(強、弱)との対応関係を持っており、補助情報取得部16が受信した「音声の強度」から対応する強度分類値を判定し、強度分類値(NO=5の場合、強)をコマンド生成部11に出力するようにしてもよい。「NO」=6から12については同様であるので説明は省略する。「NO」=5から12のように、補助情報として「時刻」と「声の強さ」とを利用することで、「昼」の時間帯には周囲の騒音が大きくなるために、音声認識エンジンの精度が劣化して認識コマンドがユーザの音声コマンドと異なってしまうといった状況を考慮して、実行コマンドを生成できる。 When "NO"=5, the "recognition command" is "power ON", the "state information" is "ON", and the "time" which is the first "auxiliary information" is "noon". , and when the second "auxiliary information" "vocal strength" is "strong", the execution command is "no transmission (or no generation)". Here, the value of "time" which is "auxiliary information" is set to "daytime". A corresponding time classification value may be determined from the “time” acquired by the auxiliary information acquisition unit 16 , and the time classification value (daytime when NO=5) may be output to the command generation unit 11 . The same is true for the second "auxiliary information", ie, "strength of voice". For example, the auxiliary information acquisition unit 16 has a correspondence relationship between the “speech intensity” input from the speech analysis unit 121 and the intensity classification (strong, weak), and the “speech intensity , and output the strength classification value (strong if NO=5) to the command generating unit 11 . Since "NO"=6 to 12 are the same, the explanation is omitted. By using the "time" and "voice strength" as auxiliary information such as "NO" = 5 to 12, the surrounding noise becomes louder during the "daytime" time zone, so the voice recognition Executable commands can be generated taking into account situations where the accuracy of the engine is degraded and the recognized commands differ from the user's spoken commands.

「NO」=13の場合、「認識コマンド」が「電源ON」であり、「状態情報」が「ON」であり、1つ目の「補助情報」である「時刻」が「夜」であり、2つ目の「補助情報」である「ユーザ識別情報」が「大人」である時に、実行コマンドは「電源OFF」とする例である。「NO」=5と同様、例えば、音声分析部121が声紋分析による音声コマンドの発信源の年齢を補助情報取得部16に入力する場合、年齢と年齢分類値(大人、子供)との対応関係により、補助情報取得部16が受信した「年齢」から対応する年齢分類値を判定し、年齢分類値(NO=13の場合、大人)をコマンド生成部11に出力するようにしてもよい。「NO」=14から20については同様であるので説明は省略する。「NO」=13から20のように、補助情報として「時刻」と「ユーザ識別情報」とを利用することで、「夜」の時間帯には周囲の騒音が小さいために、音声認識エンジンの精度は劣化しないが、「夜」はユーザによって実行コマンドの生成や送信を制限したいといった場合に利用できる。 When "NO"=13, the "recognition command" is "power ON", the "status information" is "ON", and the "time" which is the first "auxiliary information" is "night". , the execution command is "power off" when the "user identification information", which is the second "auxiliary information", is "adult". As with "NO"=5, for example, when the voice analysis unit 121 inputs the age of the source of the voice command by voiceprint analysis to the auxiliary information acquisition unit 16, the correspondence relationship between the age and the age classification value (adult, child) , the corresponding age classification value may be determined from the “age” received by the auxiliary information acquisition unit 16 , and the age classification value (adult if NO=13) may be output to the command generation unit 11 . Since "NO"=14 to 20 are the same, the explanation is omitted. By using "time" and "user identification information" as auxiliary information such as "NO" = 13 to 20, the voice recognition engine can Although the accuracy is not degraded, "Night" can be used when the user wants to restrict the generation and transmission of execution commands.

以上、図6のフローチャートの手順により、図7による条件組合わせリストを用いた実行コマンドの生成が可能になる。 As described above, according to the procedure of the flowchart of FIG. 6, it is possible to generate an execution command using the condition combination list of FIG.

図7による条件組合わせリストの「NO」=1の条件を適用した場合、メイン電源の現状態(「状態情報」に相当)が「ON」である。通常このような状況においてユーザは、「電源ON」という音声コマンドを発する可能性は少なく、逆に現状態「ON」の反対である「電源OFF」の音声コマンドを発する可能性の方が高くなると考えられる。しかし、周囲の騒音などにより、「電源OFF」の音声コマンドがコマンド認識部13の音声認識エンジンによって「電源ON」と認識されると、ユーザが「電源OFF」と発声しているにも関わらず、受信装置10のメイン電源をOFFにすることができない事態が発生し、ユーザのストレスは多大なものになる。しかし本実施形態によれば、コマンド制御部1において、条件組合わせリストの「NO」=1の条件を用いて、受信装置10の状態情報に基づいて認識コマンドの解釈をすることでこのような事態を防ぐことが可能となる。同様にコマンド制御部1に条件組合わせリストの「NO」=2から4を適用した場合、認識コマンドがメイン電源の現状態(「状態情報」)を切り替えるような制御命令である場合には認識コマンドと実行コマンドの制御命令を一致させる。逆に認識コマンドが「状態情報」と同じ状態への制御命令である場合は、実行コマンドの制御命令は、認識コマンドと反対のもしくは異なる制御命令となる。このように動作させる背景は、音声認識エンジンが特にONとOFFの音声の認識を間違える可能性が高いことにある。本実施形態においては、制御対象の現状態と制御後の状態とが同じになるようにユーザが音声コマンドを発することはあまりないという点を考慮して、音声コマンドに対する音声認識による解釈を支援することを可能にする。 When the condition of "NO"=1 in the condition combination list shown in FIG. 7 is applied, the current state of the main power supply (corresponding to "state information") is "ON". Normally, in such a situation, the user is less likely to issue the voice command "power ON", and is more likely to issue the voice command "power OFF", which is the opposite of the current state "ON". Conceivable. However, when the voice command "power off" is recognized as "power on" by the voice recognition engine of the command recognition unit 13 due to ambient noise, etc., the user utters "power off". , a situation occurs in which the main power supply of the receiving apparatus 10 cannot be turned off, and the stress on the user becomes great. However, according to this embodiment, the command control unit 1 interprets the recognition command based on the state information of the receiving apparatus 10 using the condition of "NO"=1 in the condition combination list. It is possible to prevent the situation. Similarly, when "NO" in the condition combination list = 2 to 4 is applied to the command control unit 1, if the recognition command is a control instruction for switching the current state ("state information") of the main power supply, the recognition Match the control instructions of the command and the execution command. Conversely, if the recognition command is a control instruction to the same state as the "state information", the control instruction of the execution command will be a control instruction opposite to or different from the recognition command. The reason for this behavior is that the speech recognition engine is particularly likely to misinterpret ON and OFF speech. In this embodiment, considering that the user rarely issues a voice command so that the current state of the controlled object and the state after control are the same, interpretation of the voice command by voice recognition is supported. make it possible.

本実施形態における図7の条件組合わせリストには、NO1からNO20に、実行コマンドを決定するための条件組合せが示されているが、これらに優先権をつけて、コマンド生成部11に優先権を考慮して条件組合わせリストを参照させることもできる。優先権は、図7のように、NO1からNO20の行順に与えてもよい。この場合、コマンド生成部11は、補助情報を取得したとしても、NO1からNO4に優先権があるため、補助情報は使用しない。また図7のリストに別途優先順位を示す列項目を追加して、各行の条件組合せに優先権をユーザが設定できるようにしてもよい。 In the condition combination list of FIG. 7 in this embodiment, NO1 to NO20 indicate condition combinations for determining execution commands. It is also possible to refer to the condition combination list in consideration of Priority may be given in the order of rows from NO1 to NO20, as shown in FIG. In this case, even if the command generation unit 11 acquires the auxiliary information, it does not use the auxiliary information because NO1 to NO4 have priority. Also, a column item indicating the order of priority may be added to the list in FIG. 7 so that the user can set the priority for the combination of conditions in each row.

また「補助情報」が複数ある場合に、「補助情報」内で優先権を与えてもよい。例えば、図7の組合せ条件リストにおいて、補助情報に対し、例えば「時刻」、「声の強さ」、「ユーザ識別情報」の順に高い優先権を付与する。この場合、コマンド生成部11は、例えば組合せ条件リストにおいて優先権の高い補助情報が入った条件組合せから参照する。具体的には、補助情報が「時刻」のみの条件組合せに一番高い優先権を与え、次に「時刻」と「声の強さ」のみの条件組合わせに優先権を与え、その次に「時刻」と「ユーザ識別情報」のみの条件組合わせに優先権を与えるようにユーザが設定してもよい。 Also, when there are multiple pieces of "auxiliary information", priority may be given within the "auxiliary information". For example, in the combination condition list of FIG. 7, priority is given to auxiliary information in the order of "time", "voice strength", and "user identification information". In this case, the command generation unit 11 refers to, for example, the condition combination including the auxiliary information with the higher priority in the combination condition list. Specifically, the highest priority is given to the combination of conditions in which the auxiliary information is only "time", the next priority is given to the combination of conditions only in "time" and "strength of voice", and then The user may set so that priority is given only to the condition combination of "time" and "user identification information".

また、「時刻」、「声の強さ」、「ユーザ識別情報」に優先度を示す点数をユーザが設定することで、「時刻」、「声の強さ」、「ユーザ識別情報」に付与された点数の総和をコマンド生成部11に計算させ、点数の総和の高いものから、別途優先順位を高くするなどして各組合せ条件リストに優先権を与えることでもよい。この場合、優先順位をコマンド生成部11が計算できるので、ユーザは「時刻」、「声の強さ」、「ユーザ識別情報」に対して優先度を示す点数を設定するだけでよい。 In addition, by setting a score indicating priority to "time", "voice strength", and "user identification information" by the user, it is assigned to "time", "voice strength", and "user identification information" The command generator 11 may be caused to calculate the sum of the points obtained, and priority may be given to each combination condition list by, for example, giving higher priority to a list with a higher sum of points. In this case, since the command generator 11 can calculate the priority, the user only needs to set the score indicating the priority for "time", "voice strength", and "user identification information".

また基本的に組合せ条件リストに示される条件組合せは、同じ条件となる組み合わせがないように設定するのが望ましい。もし同じ条件となる組み合わせがある場合は、コマンド生成部11は、リスト順に選択するなどの規則を予め決めておくことでもよい。 Moreover, basically, it is desirable to set the condition combinations shown in the combination condition list so that there are no combinations that have the same conditions. If there is a combination that satisfies the same condition, the command generator 11 may predetermine a rule such as selection in the order of the list.

(第2の実施形態)
本実施形態においては、ユーザが発した音声コマンドと、状態情報と、補助情報として番組種類と声の強さとを利用して、受信装置10のスピーカ部104が出力する音量のON-OFFを制御する場合のコマンド制御部1の動作例について示す。なお、本実施形態においては、メイン電源はONの状態であることを想定している。
(Second embodiment)
In the present embodiment, ON/OFF of the volume output from the speaker unit 104 of the receiving apparatus 10 is controlled using the voice command issued by the user, the status information, and the program type and voice strength as auxiliary information. An operation example of the command control unit 1 in the case of doing is shown. In addition, in this embodiment, it is assumed that the main power supply is in an ON state.

図8は、第2の実施形態において、音量を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。なお、本実施形態におけるコマンド制御部1が音声コマンドを受信して実行コマンドを送信するための処理動作の例は、図6を用いて説明するが、第1の実施形態と同様の部分については説明を省略する。 FIG. 8 is a diagram showing an example of execution command generation conditions set in the command control unit for volume control in the second embodiment. An example of a processing operation for the command control unit 1 in this embodiment to receive a voice command and transmit an execution command will be described with reference to FIG. Description is omitted.

ユーザは、受信装置10のスピーカ部104の音量出力のON-OFFを制御するために、音声コマンド「音量ON」もしくは「音量OFF」を発したとする。音声検知部が音声を検知する(ステップS11のYES)。音声分析処理の結果、制御部19が、認識コマンドを生成すると判断、コマンド認識部13に、音声データに対する音声認識を実行させる(ステップS13のYES)。コマンド認識部13は、音声認識により、認識コマンドをテキストデータとして得て、認識コマンドをコマンド生成部11に出力する(ステップS14)。 Assume that the user issues a voice command “volume ON” or “volume OFF” in order to control ON/OFF of the volume output of the speaker unit 104 of the receiving device 10 . The voice detection unit detects voice (YES in step S11). As a result of the voice analysis processing, the control unit 19 determines to generate a recognition command, and causes the command recognition unit 13 to perform voice recognition on the voice data (YES in step S13). The command recognition unit 13 obtains the recognition command as text data through voice recognition, and outputs the recognition command to the command generation unit 11 (step S14).

コマンド生成部11は、コマンド認識部13から認識コマンドを受信すると、記憶部111の条件組合わせリストを参照する。コマンド生成部11は、コマンド認識部13から「認識コマンド」として「音量ON」が入力されると、組合せ条件リストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の項目である「番組種類」、「声の強さ」を補助情報管理部91に要求し、取得し、コマンド生成部11に出力する(ステップS15)。状態情報取得部17は、「認識コマンド」が「音量ON」であることから制御対象がメイン電源80であることを把握し、状態情報管理部92からスピーカ部104の状態情報を取得し、コマンド生成部11に出力する(ステップS16)。 Upon receiving the recognition command from the command recognition unit 13 , the command generation unit 11 refers to the condition combination list in the storage unit 111 . When "volume ON" is input as the "recognition command" from the command recognition unit 13, the command generation unit 11 refers to the combination condition list and acquires the column items "auxiliary information" and "state information" of the list. to the auxiliary information acquisition unit 16 and the state information acquisition unit 17, respectively. The auxiliary information acquisition unit 16 requests the auxiliary information management unit 91 to acquire the items of the auxiliary information of the combination condition list, namely, “type of program” and “intensity of voice”, and outputs them to the command generation unit 11 (step S15). The state information acquisition unit 17 recognizes that the control target is the main power supply 80 because the “recognition command” is “volume ON”, acquires the state information of the speaker unit 104 from the state information management unit 92, and receives the command Output to the generation unit 11 (step S16).

コマンド生成部11は、組合せ条件リストを参照して、取得した補助情報と、状態情報と、認識コマンドとの組み合わせが一致した行の「実行コマンド」の項目にコマンドがある場合は、「実行コマンド」の項目に記載されているコマンドを実行コマンドとして生成し、コマンド送信部18へ出力する(ステップS17,S18のYES,S19)。一方、「実行コマンド」の項目が「送信なし」となっている場合は、実行コマンドの生成はせず、コマンド制御部1は次の音声が検知されるのを待つ(ステップS17,S18のNO)。コマンド送信部18は、実行コマンドが入力されたら、実行コマンドをインターフェース部15から制御部90に送信する(ステップS101)。 The command generation unit 11 refers to the combination condition list, and if there is a command in the item of “execution command” of the line in which the combination of the acquired auxiliary information, the status information, and the recognition command matches, ” is generated as an execution command, and output to the command transmission unit 18 (steps S17, YES in S18, S19). On the other hand, if the item of "execution command" is "no transmission", the command control unit 1 does not generate an execution command and waits until the next voice is detected (NO in steps S17 and S18). ). When the execution command is input, the command transmission section 18 transmits the execution command from the interface section 15 to the control section 90 (step S101).

図8を用いて、組合せ条件リストについて詳細を説明する。 Details of the combination condition list will be described with reference to FIG.

「NO」=1の場合、「状態情報」が「ON」であることから、現在「音量」が出力状態であることを示す。「NO」=1の条件組合せは、「認識コマンド」が「音量ON」であり、1つ目の「補助情報」である「番組種類」が「緊急情報」であり、2つ目の「補助情報」である「声の強さ」が「-」(条件なし)である時に、コマンド生成部11が実行コマンドとして「送信なし(もしくは生成しない)」を生成する例である。「NO」=2から4については同様であるので説明は省略する。「NO」=1から4のように、補助情報として「番組種類」を利用して、「番組種類」が「緊急情報」である場合には、あらゆる状況において、音量をONにしたいといった要求を考慮できる。例えば、放送信号受信処理部20が放送信号を受信中に地震などが起きた場合、たまたま音量をOFFにしていた場合に、ユーザは音量をONにするためにとっさに「音量ON」の音声コマンドを出力する。しかし、地震などの緊急時には周囲の騒音が大きくなることが予想され、ユーザの発した音声コマンドが間違って認識されてしまう可能性が高い。このような場合に、補助情報取得部16が取得した補助情報の「番組種類」として「緊急情報」を取得すると、コマンド生成部11は、受信した「認識コマンド」や制御対象の「状態情報」によらず常に音量をONにする。 If "NO"=1, the "state information" is "ON", indicating that the "volume" is currently in the output state. The condition combination of "NO"=1 is that the "recognition command" is "volume ON", the first "auxiliary information" "program type" is "emergency information", and the second "auxiliary This is an example in which the command generation unit 11 generates “no transmission (or no generation)” as an execution command when “voice strength”, which is information, is “-” (no condition). Since "NO"=2 to 4 are the same, the explanation is omitted. If the "type of program" is used as auxiliary information, such as "NO"=1 to 4, and the "type of program" is "emergency information", a request to turn on the volume is issued in any situation. can be considered. For example, if an earthquake or the like occurs while the broadcast signal reception processing unit 20 is receiving a broadcast signal, and if the volume is turned off by chance, the user may issue a voice command "volume on" to turn on the volume. to output However, in an emergency such as an earthquake, it is expected that the surrounding noise will increase, and there is a high possibility that the voice command issued by the user will be erroneously recognized. In such a case, when the auxiliary information acquisition unit 16 acquires "emergency information" as the "program type" of the acquired auxiliary information, the command generation unit 11 generates the received "recognition command" and the "status information" of the control target. Always turn on the volume regardless of

「NO」=5から12は、補助情報として「ユーザ識別情報」を使用する例である。例えば、昼間の時間帯などに子供が受信装置10でデジタルコンテンツを視聴することを避けたいといった場合に、「NO」=5から12のような条件組合せ利用することができる。 “NO”=5 to 12 are examples of using “user identification information” as auxiliary information. For example, when it is desired to prevent children from viewing digital content on the receiving device 10 during daytime hours, a combination of conditions such as "NO"=5 to 12 can be used.

以上、本実施形態のように、ユーザが組合せ条件リストを設定することで、さまざまなユースケースを想定して、音声コマンドに対するコマンド制御が可能となる。 As described above, the user sets the combination condition list as in the present embodiment, so that various use cases can be assumed and command control can be performed for voice commands.

(第3の実施形態)
本実施形態においては、ユーザが発した音声コマンドと、状態情報と、補助情報としてユーザ識別情報と時刻とを利用して、受信装置10が、表示部103やスピーカ部104に出力するデジタルコンテンツを制御する場合のコマンド制御部1の動作例について示す。なお、本実施形態においては、メイン電源はONの状態であることを想定している。また、本実施形態においては、1つの音声コマンドに対して、2つの実行コマンドを出力する例を示す。
(Third embodiment)
In the present embodiment, the receiving device 10 outputs digital content to the display unit 103 and the speaker unit 104 using voice commands issued by the user, status information, and user identification information and time as auxiliary information. An operation example of the command control unit 1 when controlling is shown. In addition, in this embodiment, it is assumed that the main power supply is in an ON state. Also, in this embodiment, an example of outputting two execution commands for one voice command is shown.

図9は、第3の実施形態において、デジタルコンテンツ受信を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。 FIG. 9 is a diagram showing an example of execution command generation conditions set in the command control unit for controlling reception of digital content in the third embodiment.

なお、本実施形態におけるコマンド制御部1が音声コマンドを受信して実行コマンドを送信するための処理動作例は、図6のフローチャートを用いて説明するが、第1の実施形態と同様の部分については説明を省略する。 An example of the processing operation for the command control unit 1 in this embodiment to receive a voice command and transmit an execution command will be described using the flowchart of FIG. omit the explanation.

ユーザは、受信装置10の表示部103やスピーカ部104へのデジタルコンテンツの出力を制御するために、音声コマンド「ネット」、「チューナ」もしくは「レコーダ」のいずれかを発したとする。音声検知部が音声を検知する(ステップS11のYES)。ステップS12、S13を経て、コマンド認識部13は、音声認識により、認識コマンドをテキストデータとして得て、認識コマンドをコマンド生成部11に出力する(ステップS14)。 Assume that the user issues any of the voice commands “net”, “tuner”, or “recorder” in order to control the output of digital content to display unit 103 and speaker unit 104 of receiving device 10 . The voice detection unit detects voice (YES in step S11). Through steps S12 and S13, the command recognition unit 13 obtains the recognition command as text data by voice recognition, and outputs the recognition command to the command generation unit 11 (step S14).

コマンド生成部11は、コマンド認識部13から「認識コマンド」が入力されると、記憶部111の条件組合わせリストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の項目である「ユーザ識別情報」、「時刻」を補助情報管理部91に要求し、取得し、コマンド生成部11に出力する(ステップS15)。状態情報取得部17は、「認識コマンド」から制御対象がコンテンツ出力装置であることを把握し、状態情報管理部92からスピーカ部104の状態情報を取得し、コマンド生成部11に出力する(ステップS16)。 When the "recognition command" is input from the command recognition unit 13, the command generation unit 11 refers to the condition combination list in the storage unit 111, and acquires the column items "auxiliary information" and "status information" of the list. to the auxiliary information acquisition unit 16 and the state information acquisition unit 17, respectively. The auxiliary information acquisition unit 16 requests the auxiliary information management unit 91 to obtain the items of the auxiliary information of the combination condition list, namely, “user identification information” and “time”, and outputs them to the command generation unit 11 (step S15). . The state information acquisition unit 17 recognizes that the control target is the content output device from the "recognition command", acquires the state information of the speaker unit 104 from the state information management unit 92, and outputs it to the command generation unit 11 (step S16).

コマンド生成部11は、ステップ17からS19を経て実行コマンドを生成し、コマンド送信部18へ出力する。コマンド送信部18から実行コマンドを制御部90に送信する(ステップS101)。本実施形態においては、実行コマンドは2つ生成される。コンテンツ出力装置に対する第1の実行コマンドと、番組種類に対する第2の実行コマンドである。 The command generator 11 generates an execution command through steps 17 to S19 and outputs it to the command transmitter 18 . An execution command is transmitted from the command transmission unit 18 to the control unit 90 (step S101). In this embodiment, two execution commands are generated. A first execution command for the content output device and a second execution command for the program type.

図9を用いて、組合せ条件リストについて詳細を説明する。 Details of the combination condition list will be described with reference to FIG.

「NO」=1の場合、コンテンツ出力装置の「状態情報」が「チューナ」であることから、現在、「チューナ」が表示部103、スピーカ部104へ出力していることを示す。「NO」=1の条件組合せは、コマンド生成部11が受信した認識コマンドが「ネット」であり、1つ目の補助情報であるユーザ識別情報が「大人」である時に、コマンド生成部11はコンテンツ出力装置の1つである「ネット」から表示部103、スピーカ部104へ出力させるための実行コマンドを生成する例である。「NO」=2、3については同様であるので説明は省略する。 If “NO”=1, the “status information” of the content output device is “tuner”, which indicates that the “tuner” is currently outputting to display unit 103 and speaker unit 104 . The condition combination of "NO"=1 is that when the recognition command received by the command generation unit 11 is "net" and the user identification information, which is the first auxiliary information, is "adult", the command generation unit 11 This is an example of generating an execution command for outputting to the display unit 103 and the speaker unit 104 from "net" which is one of the content output devices. Since "NO"=2 and 3 are the same, the explanation is omitted.

「NO」=4の場合、コンテンツ出力装置の「状態情報」が「チューナ」であることから、現在、「チューナ」が表示部103、スピーカ部104へ出力していることを示す。「NO」=4の条件組合せは、コマンド生成部11が受信した認識コマンドが「ネット」であり、1つ目の補助情報であるユーザ識別情報が「子供」であり、2つ目の補助情報である時刻が「昼」である時に、コマンド生成部11はコンテンツ出力装置の1つである「ネット」から表示部103、スピーカ部104へ出力させないために実行コマンドを生成もしくは送信しない例である。「NO」=4のケースは、例えば、昼間の時間帯などに子供が受信装置10で「ネット」からのデジタルコンテンツを視聴することを避けたいといった場合に利用することができる。 If “NO”=4, the “status information” of the content output device is “tuner”, which indicates that the “tuner” is currently outputting to display unit 103 and speaker unit 104 . The condition combination of "NO"=4 is that the recognition command received by the command generator 11 is "net", the user identification information as the first auxiliary information is "child", and the second auxiliary information is In this example, the command generation unit 11 does not generate or transmit an execution command in order not to output to the display unit 103 and the speaker unit 104 from the "net", which is one of the content output devices, when the time is "noon". . The case of “NO”=4 can be used, for example, when children want to avoid viewing digital content from the “net” on the receiving device 10 during daytime hours.

また、「NO」=9の場合、コンテンツ出力装置の「状態情報」が「レコーダ」であることから、現在、「レコーダ」が表示部103、スピーカ部104へ出力していることを示す。「NO」=9の条件組合せは、コマンド生成部11が受信した認識コマンドが「ネット」であり、1つ目の補助情報であるユーザ識別情報が「子供」であり、2つ目の補助情報である時刻が「夜」である時に、コマンド生成部11は実行コマンドとして、「ネット」と番組種類に対する実行コマンドである「教育」との2つを生成する。生成された2つの実行コマンドは、コマンド送信部18から制御部90に送信され、「ネット」が配信サービスする「教育」に関する番組を表示部103、スピーカ部104へ出力させる。「NO」=9のケースは、例えば、夜間の時間帯に子供が受信装置10で「ネット」を見ようとした場合に、番組種類が「教育」であるデジタルコンテンツを視聴するようにしたいといった場合に利用することができる。 If “NO”=9, the “status information” of the content output device is “recorder”, which indicates that “recorder” is currently outputting to display unit 103 and speaker unit 104 . The condition combination of "NO"=9 is that the recognition command received by the command generator 11 is "net", the user identification information as the first auxiliary information is "child", and the second auxiliary information is When the time is "night", the command generator 11 generates two execution commands, "net" and "education", which is an execution command for the program type. The two generated execution commands are transmitted from the command transmission unit 18 to the control unit 90, and output to the display unit 103 and the speaker unit 104 a program related to "education" distributed by "net". The case of "NO" = 9 is, for example, a case where, when a child tries to watch "net" on the receiving device 10 at nighttime, it is desired to view digital content whose program type is "educational". can be used for

また、例えば、ユーザがBSを視聴中に、すなわち、制御対象部位「チューナ」の状態情報が「BS」である時に、ユーザが音声コマンドとして「BS」を発声するなどし、コマンド認識部13が、認識コマンドとして「BS」を生成し、コマンド生成部11に出力したとする。コマンド生成部11は、認識コマンドが入力されると、制御対象部位「チューナ」の「ホーム」に設定された状態値(「地デジ」とする)に切り替える実行コマンド「地デジ」を生成、送信する。制御部90は、実行コマンド「地デジ」を受信し、チューナを「地デジ」に切り替える。この時、表示部103、スピーカ104に出力するチャネル(番組)を、制御対象部位である「チャネル(番組)」に設定された「ホーム」の状態値を選択するようにしてもよい。すなわち、この例の場合、コマンド生成部11は、ユーザが発した1つの制御対象部位に対する音声コマンド(もしくはそれを認識した認識コマンド)に対して、「チューナ」と「チャネル(番組)」という複数の制御対象部位に対して実行コマンドを生成する。「チャネル(番組)」に対し設定される「ホーム」は、例えば前回テレビ装置の電源をOFFにする直前に視聴していたチャネルとしてもよいし、ユーザが予め設定したチャネルとしてもよい。また、異なる対象制御部位に対する実行コマンドを分けずに、1つの実行コマンドとすることでもよい。 Further, for example, while the user is watching BS, that is, when the state information of the control target part "tuner" is "BS", the user utters "BS" as a voice command, and the command recognition unit 13 , “BS” is generated as a recognition command and output to the command generation unit 11 . When the recognition command is input, the command generation unit 11 generates and transmits an execution command "digital terrestrial" to switch to the state value ("digital terrestrial") set to "home" of the part to be controlled "tuner". do. The control unit 90 receives the execution command "digital terrestrial" and switches the tuner to "digital terrestrial". At this time, the channel (program) to be output to the display unit 103 and the speaker 104 may be selected from the "home" state value set for the "channel (program)" which is the control target portion. That is, in the case of this example, the command generation unit 11 generates a plurality of "tuner" and "channel (program)" for a voice command (or a recognition command that recognizes the voice command) issued by the user for one control target part. Generates an execution command for the control target part of The "home" set for the "channel (program)" may be, for example, the channel that was viewed immediately before the power of the television device was turned off last time, or the channel preset by the user. Also, the execution commands for different target control parts may not be divided into one execution command.

以上、本実施形態のように、ユーザが組合せ条件リストを設定することで、1つの音声コマンドから複数の実行コマンドを生成し、送信し、実行させることができる。 As described above, the user can set a combination condition list as in the present embodiment to generate, transmit, and execute a plurality of execution commands from one voice command.

(第4の実施形態)
本実施形態においては、コマンド制御部1を一つの独立した装置として利用する場合のシステムの例を示す。
(Fourth embodiment)
This embodiment shows an example of a system in which the command control section 1 is used as an independent device.

図10は、第3の実施形態に係るシステム全体の構成例を示した図である。
ネットワーク500に、コマンド制御装置2と、IoTデバイス600A、600Bとが接続されている。IoTデバイス600Aと600Bとが同様の機能を備え、特に両者を区別しない場合は、IoTデバイス600Aと600BとをIoTデバイス600と称する。IoTデバイス600は図10には2つだけ示されているが、多数あってもよい。
FIG. 10 is a diagram showing a configuration example of the entire system according to the third embodiment.
A command control device 2 and IoT devices 600A and 600B are connected to a network 500 . The IoT devices 600A and 600B have similar functions and are referred to as the IoT device 600 unless otherwise distinguished. Although only two IoT devices 600 are shown in FIG. 10, there may be many.

コマンド制御装置2は、例えばCPUやメモリなどを有したコンピュータに構築される。コマンド制御装置2は、パーソナルコンピュータであっても良いし、サーバ、データベースなどを含むクラウドサービスであっても良い。コマンド制御装置2は、コマンド認識部1と、通信部102Aとを含む。コマンド認識部1、通信部102Aは、それぞれ図3におけるコマンド認識部1と、通信部102の機能に相当する。 The command control device 2 is constructed in a computer having, for example, a CPU and a memory. The command control device 2 may be a personal computer, or may be a cloud service including a server, database, and the like. The command control device 2 includes a command recognition section 1 and a communication section 102A. Command recognition unit 1 and communication unit 102A correspond to the functions of command recognition unit 1 and communication unit 102 in FIG. 3, respectively.

IoTデバイス600は、あらゆる種類のIoT機器であり、ネットワーク100に接続され、ネットワーク100上の装置とデータ通信を実施する。IoTデバイス600は、例えば、温度検知センサ、水漏れ検知センサ、ドア開閉センサなどのセンサ類であってもよいし、それらのセンサを用いた検知装置でもよい。また、IoTデバイス600は、エアコン、テレビ装置、照明、カメラなどの家電でもよい。またネットワーク100に接続であれば、スマートフォンのようなモバイル端末でもよい。本実施形態におけるIoTデバイス600は、コマンド制御装置2に対して補助情報と、状態情報とを提供し、コマンド制御装置2の出力した実行コマンドを受信し、受信した実行コマンドによりIoTデバイス600の機能を制御する。 The IoT device 600 is any kind of IoT equipment that is connected to the network 100 and performs data communication with devices on the network 100 . The IoT device 600 may be, for example, sensors such as a temperature detection sensor, a water leak detection sensor, a door opening/closing sensor, or a detection device using these sensors. Also, the IoT device 600 may be a home appliance such as an air conditioner, a television device, lighting, or a camera. Also, a mobile terminal such as a smartphone may be used as long as it is connected to the network 100 . The IoT device 600 in this embodiment provides auxiliary information and status information to the command control device 2, receives the execution command output by the command control device 2, and functions of the IoT device 600 according to the received execution command. to control.

具体的には、IoTデバイス600は、補助情報出力部21A、状態切替部22A、制御部90A、補助情報管理部91A、状態情報管理部92A、通信部102A、インターフェース部105Aを含む。それぞれの機能は、図2における補助情報出力部21、状態切替部82、制御部90、補助情報管理部91、状態情報管理部92、通信部102、インターフェース部105の機能に相当する。 Specifically, the IoT device 600 includes an auxiliary information output unit 21A, a state switching unit 22A, a control unit 90A, an auxiliary information management unit 91A, a state information management unit 92A, a communication unit 102A, and an interface unit 105A. Each function corresponds to the functions of the auxiliary information output unit 21, the state switching unit 82, the control unit 90, the auxiliary information management unit 91, the state information management unit 92, the communication unit 102, and the interface unit 105 in FIG.

すなわち、図2の各機能を、コマンド制御装置2とIoTデバイス600Aに割り振ったとも言える。第1の実施形態にて示した受信装置10と、本実施形態に示すIoTデバイス600との大きな違いは、受信装置10には内部にコマンド制御部1を備えているが、IoTデバイス600にはコマンド制御部1を備えていないことにある。本実施形態においては、コマンド制御部1はコマンド制御装置2に備えられており、IoTデバイス600は、ネットワーク500を介してコマンド制御装置2から実行コマンドを受信する。 That is, it can be said that each function in FIG. 2 is allocated to the command control device 2 and the IoT device 600A. A major difference between the receiving device 10 shown in the first embodiment and the IoT device 600 shown in the present embodiment is that the receiving device 10 has a command control unit 1 inside, but the IoT device 600 has The reason is that the command control unit 1 is not provided. In this embodiment, the command control unit 1 is provided in the command control device 2 , and the IoT device 600 receives execution commands from the command control device 2 via the network 500 .

コマンド制御装置2が制御可能なIoTデバイス600の制御対象部位は、例えば、第1から第3の実施形態で示した電源(ON-OFF)でもよいし、その他、機能部位の起動と停止を制御することでもよい。 The control target part of the IoT device 600 that can be controlled by the command control device 2 may be, for example, the power supply (ON-OFF) shown in the first to third embodiments, or control the start and stop of the functional parts. You can also

コマンド制御装置2が、IoTデバイス600に対して実行コマンドを送信する手順は図6のフローチャートを利用することができる。第1の実施形態、第2の実施形態と同様の手順についての詳細説明は省略する。 The flow chart of FIG. 6 can be used for the procedure for the command control device 2 to send the execution command to the IoT device 600 . A detailed description of procedures similar to those of the first and second embodiments will be omitted.

ユーザはコマンド制御装置2の近くにおり、IoTデバイス600Aに対してネットワーク500を介して遠隔で制御をする。ユーザはコマンド制御装置2のコマンド制御部1に、IoTデバイス600Aに対する実行コマンド生成条件(組合せ条件リスト)を設定する。 The user is near the command control device 2 and remotely controls the IoT device 600A via the network 500. FIG. The user sets execution command generation conditions (combination condition list) for the IoT device 600A in the command control unit 1 of the command control device 2 .

ユーザは、IoTデバイス600Aの機能を制御するために、コマンド制御装置2の音声検知部12に対して音声コマンドを発したとする。音声検知部12が音声を検知し、音声分析部121による音声分析処理を経て、コマンド認識部13が、認識コマンドの生成し、コマンド生成部11に認識コマンドを出力する(ステップS11のYES、S12、S13のYES、S14)。 Assume that the user issues a voice command to the voice detection unit 12 of the command control device 2 in order to control the function of the IoT device 600A. The voice detection unit 12 detects voice, the voice analysis unit 121 performs voice analysis processing, the command recognition unit 13 generates a recognition command, and outputs the recognition command to the command generation unit 11 (YES in step S11, S12 , YES in S13, S14).

コマンド生成部11は、コマンド認識部13から認識コマンドが入力されると、組合せ条件リストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の諸項目を補助情報管理部91Aに要求し、取得し、コマンド生成部11に出力する(ステップS15)。本実施形態におけるステップS15について、詳細に説明する。 When a recognition command is input from the command recognizing unit 13, the command generating unit 11 refers to the combination condition list, and acquires the column items of the list, ie, “auxiliary information” and “state information”, respectively. And the state information acquisition unit 17 is commanded. The auxiliary information acquisition unit 16 requests various items of auxiliary information in the combination condition list from the auxiliary information management unit 91A, acquires them, and outputs them to the command generation unit 11 (step S15). Step S15 in this embodiment will be described in detail.

補助情報取得部16は、通信部102Aを介して、IoTデバイス600Aに対して補助情報の要求をする。IoTデバイス600Aにおいては、制御部90Aが通信部102A2を介して補助情報の要求を受信する。制御部90Aは、補助情報管理部91Aから補助情報を取得し、取得した補助情報をコマンド制御装置2に通信部102A2を介して送信する。 The auxiliary information acquisition unit 16 requests auxiliary information from the IoT device 600A via the communication unit 102A. In the IoT device 600A, the control unit 90A receives the request for auxiliary information via the communication unit 102A2. The control unit 90A acquires auxiliary information from the auxiliary information management unit 91A and transmits the acquired auxiliary information to the command control device 2 via the communication unit 102A2.

状態情報取得部17は、認識コマンドから制御対象を把握し、通信部102Aを介して、IoTデバイス600Aに対して制御対象の状態情報の要求をする。IoTデバイス600Aにおいて、通信部102A2を介して制御部90Aが状態情報の要求を受信する。制御部90Aは、状態情報管理部92Aから状態情報を取得し、取得した状態情報をコマンド制御装置2に通信部102A2を介して送信する。コマンド制御装置2において、通信部102A2を介してコマンド生成部11が状態情報を受信する(ステップS16)。 The state information acquisition unit 17 recognizes the controlled object from the recognition command, and requests the state information of the controlled object from the IoT device 600A via the communication unit 102A. In the IoT device 600A, the control unit 90A receives the state information request via the communication unit 102A2. The control unit 90A acquires the state information from the state information management unit 92A and transmits the acquired state information to the command control device 2 via the communication unit 102A2. In the command control device 2, the command generator 11 receives the status information via the communication section 102A2 (step S16).

コマンド生成部11は、組合せ条件リストを参照して、取得した補助情報と、状態情報と、認識コマンドとの組み合わせが一致する条件の「実行コマンド」の項目にコマンドがある場合は、「実行コマンド」の項目に記載されているコマンドを実行コマンドとして生成し、コマンド送信部18へ出力する(ステップS17,S18のYES,S19)。
一方、「実行コマンド」の項目が「送信なし」となっている場合は、実行コマンドの生成はせず、コマンド制御部1は次の音声が検知されるのを待つ(ステップS17,S18のNO)。この場合、コマンド制御部1は、「コマンド送信なし」など「実行コマンドが送信されなかったまたは生成されなかった」という意味を含むメッセージを、コマンド制御装置2の図示せぬ表示部にてメッセージを表示させたり、コマンド制御装置2の図示せぬスピーカ部からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。
The command generation unit 11 refers to the combination condition list, and if there is a command in the item of "execution command" of the condition in which the combination of the acquired auxiliary information, the status information, and the recognition command matches, the "execution command ” is generated as an execution command, and output to the command transmission unit 18 (steps S17, YES in S18, S19).
On the other hand, if the item of "execution command" is "no transmission", the command control unit 1 does not generate an execution command and waits until the next voice is detected (NO in steps S17 and S18). ). In this case, the command control unit 1 displays a message such as "no command sent" on the display unit (not shown) of the command control device 2, which means "an execution command was not sent or was not generated." The user may be notified of the message by displaying it or by outputting a voice including the message content from a speaker unit (not shown) of the command control device 2 .

コマンド送信部18は、入力された実行コマンドを、通信部102Aを介して、IoTデバイス600Aに送信する(ステップS101)。IoTデバイス600Aでは、受信した実行コマンドに従って、制御の機能を制御する。コマンド制御部1は、実行コマンドを生成もしくは送信した場合に、「実行コマンドを送信した」という意味を含んだメッセージをコマンド制御装置2の図示せぬ表示部にてメッセージを表示させたり、コマンド制御装置2の図示せぬスピーカ部からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。また、コマンド制御装置2は、認識コマンドと生成した実行コマンドが異なる場合に、「実行コマンドが認識コマンドと異なる」という内容を含んだメッセージをコマンド制御装置2の図示せぬ表示部にてメッセージを表示させたり、コマンド制御装置2の図示せぬスピーカ部からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。このようにすることで、ユーザは自身が発した音声コマンドによる意図が正しく実行されているかどうかを確認することができる。 The command transmission unit 18 transmits the input execution command to the IoT device 600A via the communication unit 102A (step S101). The IoT device 600A controls the control function according to the received execution command. When the command control unit 1 generates or transmits an execution command, the command control unit 1 causes a display unit (not shown) of the command control unit 2 to display a message containing the meaning of "execution command has been transmitted." The message may be notified to the user by, for example, outputting a voice including the content of the message from a speaker unit (not shown) of the device 2 . Further, when the recognition command and the generated execution command are different, the command control device 2 displays a message including the content "the execution command is different from the recognition command" on the display section (not shown) of the command control device 2. The user may be notified of the message by displaying it or by outputting a voice including the message content from a speaker unit (not shown) of the command control device 2 . By doing so, the user can confirm whether or not the intention of the voice command issued by the user is correctly executed.

以上の手順により、ユーザが、ネットワーク500に接続されたコマンド制御装置2に対して音声コマンドを発すると、ネットワーク500に接続されたIoTデバイス600を実行コマンドにより制御することができる。 According to the above procedure, when the user issues a voice command to the command control device 2 connected to the network 500, the IoT device 600 connected to the network 500 can be controlled by the execution command.

以上述べた少なくとも1つの実施形態によれば、音声コマンドに対する音声認識を支援するコマンド生成装置、生成方法および生成プログラムを提供することができる。 According to at least one embodiment described above, it is possible to provide a command generation device, generation method, and generation program that support speech recognition for voice commands.

以上の実施形態においては、制御対象装置である受信装置10やIoTデバイス600の上に制御部90(補助情報管理部91、状態情報管理部92を含む)の機能を設置する例を示したが、制御部90の機能の全てまたは一部を制御対象の外部の制御装置とするなどしても構わない。この場合、制御装置もネットワーク500に接続される。コマンド制御装置についても同様に、装置内の機能と、その機能が実行されるハードウェアについてはいろいろな構成、組合せが考えられ、以上に示した実施形態の例に限定されるものではない。
(変形例)
本変形例においては、例えば、補助情報として、図5の「ユーザ識別情報」、「時間帯」を用いることで、子供の視聴制限や操作制限などのパレンタルコントロール(Parental Control)を可能とする例を示す。テレビ装置を操作するリモコンなどは大人が管理しているものとする。
In the above embodiment, an example is shown in which the functions of the control unit 90 (including the auxiliary information management unit 91 and the state information management unit 92) are installed on the receiving device 10 and the IoT device 600, which are devices to be controlled. , all or part of the functions of the control unit 90 may be provided as an external control device to be controlled. In this case, the control device is also connected to network 500 . Similarly, for the command control device, various configurations and combinations of functions within the device and hardware for executing the functions are conceivable, and are not limited to the examples of the embodiments shown above.
(Modification)
In this modified example, for example, by using the "user identification information" and "time zone" in FIG. Give an example. It is assumed that an adult is in charge of the remote control for operating the television set.

具体的には、子供が音声コマンドを発した場合に、音声分析部121によって声紋分析がなされ、補助情報取得部16でユーザ識別情報として「子供」が取得され、コマンド生成部11に入力されたとする。同時にその音声コマンドがコマンド認識部13に入力され、認識コマンドが生成され、コマンド生成部11に入力されたとする。コマンド生成部11は、例えば、認識コマンド「電源OFF」、補助情報「子供」に基づいて、実行コマンドとして「電源OFF」を生成し、制御部90に出力する。一方、コマンド生成部11は、補助情報取得部16からユーザ識別情報として「子供」を取得し、時間帯として「深夜」を取得したとする。この場合、コマンド生成部11は、「子供」と「深夜」という補助情報のみから、例えば「現状態を維持するための実行コマンド」を生成することでもよい。 Specifically, when a child issues a voice command, the voice analysis unit 121 performs voiceprint analysis, the auxiliary information acquisition unit 16 acquires “child” as the user identification information, and the input to the command generation unit 11 is “child”. do. Assume that the voice command is input to the command recognition unit 13 at the same time, a recognition command is generated, and the recognition command is input to the command generation unit 11 . The command generation unit 11 generates, for example, “power OFF” as an execution command based on the recognition command “power OFF” and the auxiliary information “child”, and outputs it to the control unit 90 . On the other hand, it is assumed that the command generation unit 11 acquires “children” as the user identification information from the auxiliary information acquisition unit 16 and acquires “midnight” as the time period. In this case, the command generation unit 11 may generate, for example, an "execution command for maintaining the current state" from only the auxiliary information "children" and "midnight".

図5には図示されていないが、補助情報として「番組視聴対象」なども合わせて用いることでもパレンタルコントロールが可能である。例えば、コマンド認識部13が、子供が発した音声コマンドにより制御対象部位が「チャネル(番組)」であることを認識したとする。コマンド認識部13は、認識した制御対象部位を含めた認識情報を補助情報取得部16に出力すると、補助情報取得部16は、認識情報に含まれる制御対象部位「チャネル(番組)」に対する補助情報である「番組視聴対象」を放送信号受信処理部20などから取得し、コマンド生成部11に出力する。コマンド生成部11は、音声分析部121から得たユーザ識別情報である「子供」と、「番組視聴対象」との2つの補助情報に基づいて、実行コマンドを生成する。例えば番組視聴対象に「子供」が含まれる場合は、認識コマンドをそのまま実行コマンドとして生成する。また、番組視聴対象に「子供」が含まれない場合は、例えば、「現状態を維持するための実行コマンド」を生成する。 Although not shown in FIG. 5, parental control is possible by also using "program viewing target" as auxiliary information. For example, it is assumed that the command recognition unit 13 recognizes that the control target part is the "channel (program)" from the voice command uttered by the child. When the command recognition unit 13 outputs the recognition information including the recognized control target part to the auxiliary information acquisition unit 16, the auxiliary information acquisition unit 16 acquires the auxiliary information for the control target part "channel (program)" included in the recognition information. is acquired from the broadcast signal reception processing unit 20 or the like, and is output to the command generation unit 11 . The command generation unit 11 generates an execution command based on the two pieces of auxiliary information “children” and “program viewing target” which are the user identification information obtained from the voice analysis unit 121 . For example, if the program viewing target includes "child", the recognition command is directly generated as the execution command. Also, if the program viewing targets do not include "children", for example, an "execution command for maintaining the current state" is generated.

以上、本変形例によれば、音声コマンドに対するパレンタルコントロールが可能となる。また本変形例によれば、認識コマンド、状態情報、補助情報のうち、認識コマンドを用いずに音声コマンドに基づいて取得した補助情報のみから実行コマンドを生成することが可能である。 As described above, according to this modified example, parental control for voice commands is possible. Further, according to this modification, it is possible to generate an execution command from only the auxiliary information acquired based on the voice command without using the recognition command, out of the recognition command, the state information, and the auxiliary information.

以上述べた少なくとも1つの実施形態、変形例によれば、音声コマンドに対する音声認識を支援するコマンド制御装置、制御方法および制御プログラムを提供することができる。 According to at least one of the embodiments and modifications described above, it is possible to provide a command control device, a control method, and a control program that support speech recognition for voice commands.

上記した本装置は以下のように記載することもできる。
(A-1)
入力された音声(音声コマンド)から動作制御情報(認識コマンド)を取得し、制御対象装置(受信装置10)の動作状態を、第1モード、または、第1モードとは異なる第2モードのいずれかの動作状態とする動作制御手段(コマンド生成部11)とを具備する電子装置(コマンド制御部1もしくはコマンド制御装置2)であって、
前記制御対象装置の動作状態が第1モードであり、かつ、
前記動作制御情報が前記第1モードでの動作状態に関するものであるとき、前記動作状態を、前記第2モードとする電子装置。
(A-2)
前記制御対象装置の制御対象部位の状態に関する動作状態情報(状態情報)を取得する(A-1)に記載の電子装置。
(A-3)
前記動作制御情報および前記動作状態情報とは異なる制御条件情報(補助情報)を取得する(A-1)または(A-2)に記載の電子装置。
(A-4)
前記制御条件情報が、時間帯、ユーザ識別情報、ユーザ属性、受信コンテンツ情報、放送事業者、配信事業者、および、録画コンテンツ管理者の群の少なくともいずれか1つに基づき設定される(A-3)に記載の電子装置。
(A-5)
入力された音声(音声コマンド)から動作制御情報(認識コマンド)を取得し、制御対象装置(受信装置10)の動作状態を、第1モード、または、第1モードとは異なる第2モードのいずれかの動作状態とすることを
をコンピュータに実行させるための、プログラムであって、
前記制御対象装置の動作状態が第1モードであり、かつ、
前記動作制御情報が、前記第1モードでの動作状態に関するものであるとき、前記動作状態を、前記第2モードとする
上記のプログラム。
The apparatus described above can also be described as follows.
(A-1)
Operation control information (recognition command) is acquired from an input voice (voice command), and the operation state of the device to be controlled (receiving device 10) is set to either the first mode or the second mode different from the first mode. An electronic device (command control unit 1 or command control device 2) comprising operation control means (command generation unit 11) for setting the operating state,
The operating state of the controlled device is the first mode, and
When the operation control information relates to the operation state in the first mode, the electronic device sets the operation state to the second mode.
(A-2)
The electronic device according to (A-1), which acquires operation state information (state information) regarding a state of a control target portion of the control target device.
(A-3)
The electronic device according to (A-1) or (A-2), which acquires control condition information (auxiliary information) different from the operation control information and the operation state information.
(A-4)
The control condition information is set based on at least one of a group of time zones, user identification information, user attributes, received content information, broadcasters, distributors, and recorded content managers (A- 3) The electronic device described in 3).
(A-5)
Operation control information (recognition command) is acquired from an input voice (voice command), and the operation state of the device to be controlled (receiving device 10) is set to either the first mode or the second mode different from the first mode. A program for causing a computer to enter the operating state,
The operating state of the controlled device is the first mode, and
The above program, wherein when the operation control information relates to the operation state in the first mode, the operation state is set to the second mode.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また、複数の実施形態を組み合わせてもよく、この組み合わせで構成される実施例も発明の範疇である。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof. Furthermore, in each constituent element of the claims, even if the constituent element is divided and expressed, a plurality of constituent elements are expressed together, or a combination of these is expressed, it is within the scope of the present invention. Moreover, a plurality of embodiments may be combined, and examples configured by such combinations are also within the scope of the invention.

また、図面は、説明をより明確にするため、実際の態様に比べて、各部の幅、厚さ、形状等について模式的に表される場合がある。ブロック図においては、結線されていないブロック間もしくは、結線されていても矢印が示されていない方向に対してもデータや信号のやり取りを行う場合もある。ブロック図に示される各機能や、フローチャート、シーケンスチャートに示す処理は、ハードウェア(ICチップなど)もしくはソフトウェア(プログラムなど)もしくはハードウェアとソフトウェアの組み合わせによって実現してもよい。また請求項を制御ロジックとして表現した場合、コンピュータを実行させるインストラクションを含むプログラムとして表現した場合、及び前記インストラクションを記載したコンピュータ読み取り可能な記録媒体として表現した場合でも本発明の装置を適用したものである。また、使用している名称や用語についても限定されるものではなく、他の表現であっても実質的に同一内容、同趣旨であれば、本発明に含まれるものである。 Also, in order to make the description clearer, the drawings may schematically show the width, thickness, shape, etc. of each part compared to the actual mode. In the block diagram, data and signals may be exchanged between unconnected blocks, or between connected blocks in directions not indicated by arrows. Each function shown in the block diagram and the processing shown in the flowcharts and sequence charts may be realized by hardware (such as an IC chip), software (such as a program), or a combination of hardware and software. In addition, when the claims are expressed as control logic, when expressed as a program including instructions for executing a computer, and when expressed as a computer-readable recording medium in which the instructions are written, the apparatus of the present invention is applied. be. Also, the names and terms used are not limited, and other expressions are included in the present invention as long as they have substantially the same content and the same meaning.

1…コマンド制御部、2…コマンド制御装置、10…受信装置、11…コマンド生成部、12…音声検知部、13…コマンド認識部、14…ユーザインターフェース部、15…インターフェース部、16…補助情報取得部、17…状態情報取得部、18…コマンド送信部、19…制御部、20…放送信号受信処理部、21…補助情報出力部、30…コンテンツ処理部、31…補助情報出力部、40…録画再生部、41…補助情報出力部、50…機器データ生成部、51…補助情報出力部、60…出力制御部、62…状態切替部、70…センサ部、71…補助情報出力部、80…メイン電源部、82…状態切替部、90…制御部、91…補助情報管理部、92…状態情報管理部、93…時刻管理部、100…リモコン、101…アンテナ、102…通信部、103…表示部、104…スピーカ部、105…インターフェース部、111…記憶部、121…音声分析部、200…コンテンツサーバ装置、300…視聴解析装置、400…音声認識装置、500…ネットワーク。 DESCRIPTION OF SYMBOLS 1... Command control part 2... Command control apparatus 10... Receiving apparatus 11... Command generation part 12... Voice detection part 13... Command recognition part 14... User interface part 15... Interface part 16... Auxiliary information Acquisition unit 17 Status information acquisition unit 18 Command transmission unit 19 Control unit 20 Broadcast signal reception processing unit 21 Auxiliary information output unit 30 Contents processing unit 31 Auxiliary information output unit 40 Recording/playback unit 41 Auxiliary information output unit 50 Equipment data generation unit 51 Auxiliary information output unit 60 Output control unit 62 State switching unit 70 Sensor unit 71 Auxiliary information output unit 80 Main power supply unit 82 State switching unit 90 Control unit 91 Auxiliary information management unit 92 State information management unit 93 Time management unit 100 Remote control 101 Antenna 102 Communication unit DESCRIPTION OF SYMBOLS 103... Display part 104... Speaker part 105... Interface part 111... Storage part 121... Voice analysis part 200... Contents server apparatus 300... Viewing analysis apparatus 400... Voice recognition apparatus 500... Network.

Claims (8)

入力された音声に基づいて制御対象に対する制御命令を含む実行コマンドを生成するコマンド制御装置において、
前記音声を音声認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成する実行コマンド生成手段と、
前記音声を認識して、前記認識コマンドを得る音声認識部と、
追加情報を得る追加情報取得手段と、
前記認識コマンドと、前記追加情報と、前記実行コマンドとの対応関係を記憶する記憶手段とを備え、
前記実行コマンド生成手段は、前記認識コマンドと、前記追加情報と、前記対応関係とに基づいて、前記実行コマンドを生成することを特徴とするコマンド制御装置。
In a command control device that generates an execution command including a control instruction for a controlled object based on an input voice,
execution command generating means for generating an execution command including either a first control command included in a recognition command obtained by recognizing the voice or a second control command different from the first control command; ,
a speech recognition unit for recognizing the speech to obtain the recognition command;
additional information obtaining means for obtaining additional information;
storage means for storing a correspondence relationship between the recognition command, the additional information, and the execution command;
The command control device, wherein the execution command generation means generates the execution command based on the recognition command, the additional information, and the correspondence relationship.
前記認識コマンドと、前記追加情報に基づいて前記実行コマンドの生成有無を決定する請求項に記載のコマンド制御装置。 2. The command control device according to claim 1 , wherein whether or not to generate said execution command is determined based on said recognition command and said additional information. 前記認識コマンドと、前記追加情報に基づいて前記実行コマンドの送信有無を決定する請求項に記載のコマンド制御装置。 2. The command control device according to claim 1 , wherein whether or not to transmit said execution command is determined based on said recognition command and said additional information. 前記追加情報は、前記実行コマンドにより制御する前記制御対象の制御状態である状態情報を含む請求項乃至請求項のいずれか1項に記載のコマンド制御装置。 4. The command control device according to any one of claims 1 to 3 , wherein said additional information includes state information indicating a control state of said controlled object controlled by said execution command. 前記追加情報は、前記制御対象の制御状態ではない補助情報を含む請求項乃至請求項のいずれか1項に記載のコマンド制御装置。 4. The command control device according to any one of claims 1 to 3 , wherein the additional information includes auxiliary information that is not the control state of the controlled object. 前記追加情報は、前記実行コマンドにより制御する前記制御対象の制御状態である状態情報と、前記制御対象の制御状態ではない補助情報を含む請求項乃至請求項のいずれか1項に記載のコマンド制御装置。 4. The additional information according to any one of claims 1 to 3 , wherein the additional information includes state information that is the control state of the controlled object controlled by the execution command, and auxiliary information that is not the control state of the controlled object. Command controller. 入力された音声に基づいて制御対象機器に対する制御命令を含む実行コマンドを生成するコマンド制御方法において、
前記音声を認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成し、
前記音声を認識して、前記認識コマンドを得て、
追加情報を得て、
前記認識コマンドと、前記追加情報と、前記実行コマンドとの対応関係を記憶し、
前記認識コマンドと、前記追加情報と、前記対応関係とに基づいて、前記実行コマンドを生成することを特徴とするコマンド制御方法。
In a command control method for generating an execution command including a control command for a device to be controlled based on an input voice,
generating an execution command including either a first control command included in the recognition command obtained by recognizing the voice or a second control command different from the first control command;
recognizing the speech to obtain the recognition command;
get additional information
storing a correspondence relationship between the recognition command, the additional information, and the execution command;
A command control method , wherein the execution command is generated based on the recognition command, the additional information, and the correspondence relationship .
コンピュータにより実行され、入力された音声に基づいて制御対象機器に対する制御命令を含む実行コマンドを生成する制御プログラムにおいて、
前記音声を認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成する手順と、
前記音声を認識して、前記認識コマンドを得る手順と、
追加情報を得る手順と、
前記認識コマンドと、前記追加情報と、前記実行コマンドとの対応関係を記憶する手順と、
前記認識コマンドと、前記追加情報と、前記対応関係とに基づいて、前記実行コマンドを生成する手順と
を備える制御プログラム。
In a control program that is executed by a computer and generates an execution command including a control instruction for a device to be controlled based on an input voice,
a step of generating an execution command including either a first control command included in the recognition command obtained by recognizing the voice or a second control command different from the first control command;
recognizing the speech to obtain the recognized command;
a procedure for obtaining additional information; and
a procedure for storing the correspondence between the recognition command, the additional information, and the execution command;
a procedure for generating the execution command based on the recognition command, the additional information, and the correspondence relationship;
A control program comprising
JP2019221573A 2019-12-06 2019-12-06 Command controller, control method and control program Active JP7229906B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019221573A JP7229906B2 (en) 2019-12-06 2019-12-06 Command controller, control method and control program
CN202080005756.9A CN113228166B (en) 2019-12-06 2020-11-13 Command control device, control method, and nonvolatile storage medium
PCT/CN2020/128811 WO2021109839A1 (en) 2019-12-06 2020-11-13 Instruction control apparatus and method, and non-volatile storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019221573A JP7229906B2 (en) 2019-12-06 2019-12-06 Command controller, control method and control program

Publications (2)

Publication Number Publication Date
JP2021092612A JP2021092612A (en) 2021-06-17
JP7229906B2 true JP7229906B2 (en) 2023-02-28

Family

ID=76221412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221573A Active JP7229906B2 (en) 2019-12-06 2019-12-06 Command controller, control method and control program

Country Status (3)

Country Link
JP (1) JP7229906B2 (en)
CN (1) CN113228166B (en)
WO (1) WO2021109839A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061576A (en) 2002-07-25 2004-02-26 Denso Corp Speech control unit
JP2004086150A (en) 2002-06-28 2004-03-18 Denso Corp Voice control system
JP2007324866A (en) 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus and television receiver
JP2012063582A (en) 2010-09-16 2012-03-29 Denso Corp In-vehicle speech recognition device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI973093A (en) * 1997-07-23 1999-01-24 Nokia Mobile Phones Ltd A method for controlling a teleservice and a terminal
JPH11119792A (en) * 1997-10-20 1999-04-30 Toyota Motor Corp Equipment controller with voice recognizing function, and voice recognizing device
CN103442138A (en) * 2013-08-26 2013-12-11 华为终端有限公司 Voice control method, device and terminal
JP6779659B2 (en) * 2015-07-21 2020-11-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method and control device
CN105609103A (en) * 2015-12-18 2016-05-25 合肥寰景信息技术有限公司 Speech instant recognition system
CN109819297A (en) * 2017-11-22 2019-05-28 中国移动通信有限公司研究院 A kind of method of controlling operation thereof and set-top box
CN108766424A (en) * 2018-05-28 2018-11-06 深圳市天乔科技有限公司 Smart home intelligent sound learning control method
CN108882014A (en) * 2018-06-13 2018-11-23 成都市极米科技有限公司 Management method, managing device and the readable storage medium storing program for executing of smart television children's desktop
CN109448721A (en) * 2018-12-20 2019-03-08 西安Tcl软件开发有限公司 Sound control method, system, Cloud Server and speech ciphering equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086150A (en) 2002-06-28 2004-03-18 Denso Corp Voice control system
JP2004061576A (en) 2002-07-25 2004-02-26 Denso Corp Speech control unit
JP2007324866A (en) 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus and television receiver
JP2012063582A (en) 2010-09-16 2012-03-29 Denso Corp In-vehicle speech recognition device

Also Published As

Publication number Publication date
CN113228166B (en) 2023-02-28
JP2021092612A (en) 2021-06-17
WO2021109839A1 (en) 2021-06-10
CN113228166A (en) 2021-08-06

Similar Documents

Publication Publication Date Title
US20190333515A1 (en) Display apparatus, method for controlling the display apparatus, server and method for controlling the server
US9219949B2 (en) Display apparatus, interactive server, and method for providing response information
US8629940B2 (en) Apparatus, systems and methods for media device operation preferences based on remote control identification
US20140195230A1 (en) Display apparatus and method for controlling the same
US20140006022A1 (en) Display apparatus, method for controlling display apparatus, and interactive system
US20140195244A1 (en) Display apparatus and method of controlling display apparatus
US11227620B2 (en) Information processing apparatus and information processing method
US8600732B2 (en) Translating programming content to match received voice command language
KR20160057085A (en) Display apparatus and the control method thereof
US20150341694A1 (en) Method And Apparatus For Using Contextual Content Augmentation To Provide Information On Recent Events In A Media Program
US9392206B2 (en) Methods and systems for providing auxiliary viewing options
US12035006B2 (en) Electronic apparatus having notification function, and control method for electronic apparatus
TWI587253B (en) Method and apparatus for providing notice of availability of audio description
KR20240084531A (en) The system and an appratus for providig contents based on a user utterance
KR20200121603A (en) Electronic apparatus for providing text and controlling method thereof
JP7229906B2 (en) Command controller, control method and control program
US11895367B2 (en) Systems and methods for resolving recording conflicts
JP6305538B2 (en) Electronic apparatus, method and program
JP4654438B2 (en) Educational content generation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7229906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150