JP2021092612A - Command control device, control method and control program - Google Patents

Command control device, control method and control program Download PDF

Info

Publication number
JP2021092612A
JP2021092612A JP2019221573A JP2019221573A JP2021092612A JP 2021092612 A JP2021092612 A JP 2021092612A JP 2019221573 A JP2019221573 A JP 2019221573A JP 2019221573 A JP2019221573 A JP 2019221573A JP 2021092612 A JP2021092612 A JP 2021092612A
Authority
JP
Japan
Prior art keywords
command
unit
control
voice
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019221573A
Other languages
Japanese (ja)
Other versions
JP7229906B2 (en
Inventor
知 浜田
Satoru Hamada
知 浜田
大 高橋
Masaru Takahashi
大 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TVS Regza Corp
Original Assignee
TVS Regza Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TVS Regza Corp filed Critical TVS Regza Corp
Priority to JP2019221573A priority Critical patent/JP7229906B2/en
Priority to PCT/CN2020/128811 priority patent/WO2021109839A1/en
Priority to CN202080005756.9A priority patent/CN113228166B/en
Publication of JP2021092612A publication Critical patent/JP2021092612A/en
Application granted granted Critical
Publication of JP7229906B2 publication Critical patent/JP7229906B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Abstract

To support voice recognition with respect to a voice command.SOLUTION: A command control device generates an execution command including a control instruction to a control object apparatus based on inputted voice. The command control device generates the execution command including either of a first control instruction contained in a recognition command obtained by the voice recognition of the voice, and a second control instruction different from the first control instruction.SELECTED DRAWING: Figure 6

Description

実施形態は、コマンド制御装置、制御方法および制御プログラムに関する。 Embodiments relate to command control devices, control methods and control programs.

近年、音声認識を用いて音声で機器を制御する音声制御技術が検討されている。例えば、音声制御技術はテレビのリモコンの代わりに用いることができ、ユーザが制御命令であるコマンドを発声すると、コマンドの重畳した声(以降、音声コマンドと称する)がテレビに付属するマイクなどで受波され、音声認識によってコマンドがデータとして取り出される。取り出されたコマンドデータがテレビで実行されるコマンドとなる。この技術においては、周囲の騒音などの影響により、ユーザの発した音声コマンドが音声認識によって間違ったコマンドとして認識されることがあり、音声認識の性能の向上が検討されている。 In recent years, a voice control technique for controlling a device by voice using voice recognition has been studied. For example, voice control technology can be used in place of a TV remote control, and when a user utters a command that is a control command, the voice in which the command is superimposed (hereinafter referred to as a voice command) is received by a microphone attached to the TV. It is waved and the command is retrieved as data by voice recognition. The retrieved command data becomes the command to be executed on the TV. In this technology, a voice command issued by a user may be recognized as an erroneous command by voice recognition due to the influence of ambient noise or the like, and improvement of voice recognition performance is being studied.

特開2017−167247号公報JP-A-2017-167247

しかしながら、周囲の騒音の大きさによっては音声認識がうまく機能せず、音声制御技術を適用できる範囲が限定されることがある。また、そのため平時には動作していた音声制御技術による制御が、地震など緊急時に騒音が大きくなって正常に動作しなくなることが起こりうる。 However, depending on the loudness of the ambient noise, voice recognition may not work well, and the range to which the voice control technology can be applied may be limited. Therefore, the control by the voice control technology, which was operating in normal times, may become loud in an emergency such as an earthquake and may not operate normally.

本発明が解決しようとする課題は、音声コマンドに対する音声認識を支援するコマンド制御装置、制御方法および制御プログラムを提供することである。 An object to be solved by the present invention is to provide a command control device, a control method, and a control program that support voice recognition for voice commands.

一実施形態に係るコマンド制御装置は、入力された音声に基づいて制御対象機器に対する制御命令を含む実行コマンドを生成するコマンド制御装置において、前記音声を音声認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成する。 The command control device according to one embodiment is a command control device that generates an execution command including a control command for a device to be controlled based on an input voice, and is included in a recognition command obtained by voice-recognizing the voice. An execution command including any one of the control command 1 and the second control command different from the first control command is generated.

図1は、第1の実施形態に係るシステム全体の構成例を示した図である。FIG. 1 is a diagram showing a configuration example of the entire system according to the first embodiment. 図2は、同実施形態に係る受信装置の機能構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the receiving device according to the embodiment. 図3は、同実施形態に係るコマンド制御部の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the functional configuration of the command control unit according to the embodiment. 図4は、同実施形態において、音声コマンドにより制御できる制御対象部位と制御対象部位の状態の一例を示す図である。FIG. 4 is a diagram showing an example of a control target portion and a state of the control target portion that can be controlled by a voice command in the same embodiment. 図5は、同実施形態において、利用可能な補助情報の一例を示す図である。FIG. 5 is a diagram showing an example of auxiliary information that can be used in the same embodiment. 図6は、同実施形態において、コマンド制御部が音声コマンドを受信して実行コマンドを送信するための処理動作例を示すフローチャートである。FIG. 6 is a flowchart showing an example of processing operation for the command control unit to receive a voice command and transmit an execution command in the same embodiment. 図7は、同実施形態において、メイン電源を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。FIG. 7 is a diagram showing an example of an execution command generation condition set in the command control unit to control the main power supply in the same embodiment. 図8は、第2の実施形態において、音量を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。FIG. 8 is a diagram showing an example of an execution command generation condition set in the command control unit in order to control the volume in the second embodiment. 図9は、第3の実施形態において、デジタルコンテンツ受信を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。FIG. 9 is a diagram showing an example of execution command generation conditions set in the command control unit in order to control digital content reception in the third embodiment. 図10は、第4の実施形態に係るシステム全体の構成例を示した図である。FIG. 10 is a diagram showing a configuration example of the entire system according to the fourth embodiment.

以下、実施の形態について図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.

図1は、実施形態に係るシステム全体の構成例を示した図である。 FIG. 1 is a diagram showing a configuration example of the entire system according to the embodiment.

受信装置10は、デジタルコンテンツを視聴する機器であり、例えば、2Kまたは4K/8Kといった地上波放送、衛星放送などのデジタル放送を受信し視聴可能なテレビ受信装置(テレビ装置、テレビジョン受信機、放送信号受信装置とも称される)である。また受信装置10は、例えばインターネットなどのネットワーク500に接続するための外部インターフェースを備え、ネットワーク500に接続されるコンテンツサーバ装置200(クラウドサーバとしてもよい)が提供するデジタルコンテンツを視聴することが可能である。また、受信装置10は、録画再生機能を有していてもよく、録画再生機能により受信装置10にて録画したデジタルコンテンツを視聴可能である。また受信装置10に図示せぬ録画再生装置が接続されることで、図示せぬ録画再生装置が録画したデジタルコンテンツを視聴可能としてもよい。なお、図1では、1つの受信装置10を示したが、さらに多数の受信装置10が接続されてよい。ただし受信装置10は、デジタルコンテンツを受信可能な機器であれば、全てが同じ機能を有する必要はない。具体的には、視聴可能なモニタのない録画のみができるレコーダや放送信号を受信可能なSet Top Box(STB)などでもよい。テレビ装置やレコーダ、STBなどを総称して受信装置10と称する。 The receiving device 10 is a device for viewing digital contents, and is a television receiving device (television device, television receiver, etc.) capable of receiving and viewing digital broadcasting such as terrestrial broadcasting such as 2K or 4K / 8K and satellite broadcasting. It is also called a broadcast signal receiver). Further, the receiving device 10 is provided with an external interface for connecting to a network 500 such as the Internet, and can view digital contents provided by the content server device 200 (which may be a cloud server) connected to the network 500. Is. Further, the receiving device 10 may have a recording / playback function, and the digital content recorded by the receiving device 10 can be viewed by the recording / playback function. Further, by connecting a recording / reproducing device (not shown) to the receiving device 10, the digital contents recorded by the recording / reproducing device (not shown) may be viewed. Although one receiving device 10 is shown in FIG. 1, a larger number of receiving devices 10 may be connected. However, the receiving device 10 does not have to have the same function as long as it is a device capable of receiving digital contents. Specifically, a recorder capable of recording only without a monitor that can be viewed, a Set Top Box (STB) capable of receiving a broadcast signal, or the like may be used. The television device, recorder, STB, and the like are collectively referred to as the receiving device 10.

本実施形態においては、特にテレビ装置の例を示すが、テレビ装置をレコーダ、STBなどの受信装置10に置き換えてもよい。また、受信装置10は、同様の受信機能を持つ装置として、パーソナルコンピュータやスマートフォンなどモバイル機器でもよい。 In this embodiment, an example of a television device is particularly shown, but the television device may be replaced with a receiving device 10 such as a recorder or STB. Further, the receiving device 10 may be a mobile device such as a personal computer or a smartphone as a device having the same receiving function.

本実施形態の受信装置10は、音声認識を用いた音声による制御が可能である。コマンド制御部1は、例えばユーザが発声した音声コマンドを音声認識し、音声認識により得たコマンド(以降、認識コマンドと称する)を用いて受信装置10内の各機能を制御する。また、リモコン100は受信装置10を遠隔制御するリモートコントローラーである。 The receiving device 10 of the present embodiment can be controlled by voice using voice recognition. For example, the command control unit 1 voice-recognizes a voice command uttered by the user, and controls each function in the receiving device 10 by using a command obtained by voice recognition (hereinafter, referred to as a recognition command). Further, the remote controller 100 is a remote controller that remotely controls the receiving device 10.

また、受信装置10は、受信装置10によって視聴されたデジタルコンテンツの視聴履歴(以降、視聴データと称する)を収集し記憶できる。また、受信装置10に固有のデータ(以降、機器個別データと称する)を記憶できる。視聴データと機器個別データを含めて視聴機器データと称する。受信装置10は、視聴機器データなどの保存データをネットワーク500に接続される視聴解析装置300に出力し、視聴解析装置300が実施した視聴機器データに対する解析結果を受信することができる。 In addition, the receiving device 10 can collect and store the viewing history (hereinafter referred to as viewing data) of the digital content viewed by the receiving device 10. In addition, data unique to the receiving device 10 (hereinafter referred to as device individual data) can be stored. The viewing device data including the viewing data and the device individual data is referred to as viewing device data. The receiving device 10 can output stored data such as viewing device data to the viewing analysis device 300 connected to the network 500, and can receive the analysis result of the viewing device data performed by the viewing analysis device 300.

本実施形態における「視聴」とは、ユーザが実際に視聴していなくても、視聴可能な状態にデジタルコンテンツを受信する、または、受信した状態もしくは録画した状態を含む。従って、本実施形態における「視聴履歴」は、例えば、STBなど受信装置が、単に受信してはいるが、視聴の有無を問わない「受信履歴」や、受信装置がレコーダであった場合には、受信装置で受信され、録画予約された、または、録画がされた「録画履歴」等を含む。また同様に本実施形態における「視聴時間」は、例えば、STBなど受信装置がデジタルコンテンツを受信した時間や、受信装置がレコーダであった場合には、デジタルコンテンツを録画がされた時間等を含む。 The “viewing” in the present embodiment includes a state in which the digital content is received, received, or recorded in a viewable state even if the user is not actually viewing the content. Therefore, the "viewing history" in the present embodiment is, for example, a "reception history" that is simply received by a receiving device such as an STB, regardless of whether or not it is viewed, or when the receiving device is a recorder. , "Recording history" received by the receiving device, reserved for recording, or recorded. Similarly, the "viewing time" in the present embodiment includes, for example, the time when the receiving device such as STB receives the digital content, and when the receiving device is a recorder, the time when the digital content is recorded. ..

従って、受信装置10をレコーダ、STBなどの受信装置に置き換えた場合に、レコーダ、STBなどの受信装置が生成した受信ログデータや、ダウンロード履歴データ、録画データなども視聴機器データに含める。 Therefore, when the receiving device 10 is replaced with a receiving device such as a recorder or STB, the reception log data generated by the receiving device such as the recorder or STB, the download history data, the recorded data, and the like are also included in the viewing device data.

機器個別データは、例えば、受信装置10のリモコン100を使ってユーザが受信装置10に登録してもよいし、受信装置10の固体番号のようにメーカが設定する場合もある。機器個別データは、例えば、受信装置10のIPアドレスや、識別番号、また予め所有者などにより登録されるデモグラフィックデータ(以降、デモグラと称する)などが含まれる。デモグラとは、受信装置10を視聴するユーザを分類するデータであり、例えば、ユーザの年齢、性別、家族構成、居住地域などの情報である。識別番号は、異なる受信装置10を識別する番号、文字列などであり、例えば数字、アルファベットの組み合わせから構成されている。 The device individual data may be registered in the receiving device 10 by the user using, for example, the remote controller 100 of the receiving device 10, or may be set by the manufacturer such as the individual number of the receiving device 10. The device-specific data includes, for example, the IP address of the receiving device 10, the identification number, and demographic data (hereinafter referred to as demogra) registered in advance by the owner or the like. The demogra is data that classifies the users who view the receiving device 10, and is, for example, information such as the age, gender, family structure, and residential area of the users. The identification number is a number, a character string, or the like that identifies different receiving devices 10, and is composed of, for example, a combination of numbers and alphabets.

コンテンツサーバ装置200は、デジタルコンテンツを提供するネットワーク上もしくはクラウドサーバである。コンテンツサーバ装置200は、例えば、コンテンツサービスプロバイダ(CSP)や通信事業者、また、その他Over The Top(OTT)と呼ばれるデジタルコンテンツのサービス事業者などによって提供される。Video On Demandといったサービスを提供するサーバもコンテンツサーバ装置200に含まれる。 The content server device 200 is a network or cloud server that provides digital contents. The content server device 200 is provided by, for example, a content service provider (CSP), a telecommunications carrier, or another digital content service provider called Over The Top (OTT). A server that provides a service such as Video On Demand is also included in the content server device 200.

視聴解析装置300は、ネットワーク上もしくはクラウド上に存在し、受信装置10が記憶する視聴機器データを収集し、記憶し、さらに記憶したデータを解析して各種の視聴解析を行い、例えば解析を要求した受信装置10に解析結果を出力する装置である。視聴解析装置300は、例えばCPUやメモリなどを有したコンピュータに構築されてもよい。視聴解析装置300は、パーソナルコンピュータであっても良いし、サーバ、データベースなどによるクラウドサービスであっても良い。 The viewing analysis device 300 exists on the network or the cloud, collects and stores the viewing device data stored in the receiving device 10, further analyzes the stored data, performs various viewing analyzes, and requests analysis, for example. This is a device that outputs the analysis result to the receiving device 10. The viewing analysis device 300 may be built on a computer having, for example, a CPU or a memory. The viewing analysis device 300 may be a personal computer or a cloud service using a server, a database, or the like.

また、視聴解析装置300は、受信装置10が個別に持つ識別番号により個々の受信装置10を識別して、受信装置10個別の視聴解析を行うことができてもよい。 Further, the viewing analysis device 300 may be able to identify each receiving device 10 by the identification number individually possessed by the receiving device 10 and perform the viewing analysis of each receiving device 10.

音声認識装置400は、ネットワーク500上に設置される。音声認識装置400は、例えばCPUやメモリなどを有したコンピュータに構築される。音声認識装置400は、パーソナルコンピュータであっても良いし、クラウドサーバであっても良い。音声認識装置400は、マイクロフォンなどが受波したユーザの音声に対する音声波形のデジタルデータ(以降、音声データと称する)を、ネットワーク500を介して受信し、ユーザの発したコマンドを推定もしくは認識し、認識したコマンド(認識コマンド)をテキストデータとして出力する。音声認識装置400においては、ユーザが制御対象に発するコマンドを予めテキストデータとしてリスト化しており、受信した音声データから得たテキストデータとリストのテキストデータとを比較して、リスト中の最も近いコマンドを選択して、選択したコマンドのテキストデータを出力することでもよい。ただし、音声認識装置400における音声認識の方法はこの方法に限定されない。 The voice recognition device 400 is installed on the network 500. The voice recognition device 400 is built on a computer having, for example, a CPU and a memory. The voice recognition device 400 may be a personal computer or a cloud server. The voice recognition device 400 receives digital data (hereinafter referred to as voice data) of a voice waveform with respect to the voice of the user received by a microphone or the like via the network 500, estimates or recognizes a command issued by the user, and estimates or recognizes the command issued by the user. Output the recognized command (recognition command) as text data. In the voice recognition device 400, the commands issued by the user to the control target are listed in advance as text data, and the text data obtained from the received voice data is compared with the text data in the list, and the closest command in the list is compared. You may also select to output the text data of the selected command. However, the method of voice recognition in the voice recognition device 400 is not limited to this method.

また、音声認識装置400は、音声データをテキスト化(文字化、言語化など)した音声テキストを生成するSpeech To Textサーバ(以降、STTサーバと称する)と、生成された音声テキストとリスト化されたコマンドの中から最も近いコマンドを認識コマンドとして生成するリモート認識サーバから構成されていてもよい。具体的には、リモート認識サーバが、予め図示せぬ記憶部などに登録しておいたコマンドリストを参照して、STTサーバが生成した音声テキストと一致したコマンドもしくはリストの中で最も近いコマンドを認識コマンドとして、出力するようにしてもよい。 Further, the voice recognition device 400 is listed as a Speech To Text server (hereinafter referred to as STT server) that generates voice text in which voice data is converted into text (characterized, verbalized, etc.) and the generated voice text. It may consist of a remote recognition server that generates the closest command as a recognition command. Specifically, the remote recognition server refers to the command list registered in the storage unit (not shown in advance), and selects the command that matches the voice text generated by the STT server or the command closest to the list. It may be output as a recognition command.

ネットワーク500は、受信装置10、コンテンツサーバ装置200、視聴解析装置300、視聴解析装置300が接続されて、各装置が通信可能となるネットワークであり、例えば、インターネットである。また、ネットワーク500はインターネットだけとは限らず、各装置が通信可能であれば複数の異なるネットワークを含むネットワークでもよい。 The network 500 is a network in which a receiving device 10, a content server device 200, a viewing analysis device 300, and a viewing analysis device 300 are connected so that each device can communicate with each other, for example, the Internet. Further, the network 500 is not limited to the Internet, and may be a network including a plurality of different networks as long as each device can communicate.

図2は、実施形態に係る受信装置10の機能構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the functional configuration of the receiving device 10 according to the embodiment.

受信装置10は、デジタルコンテンツが重畳される信号を受信処理してデジタルコンテンツを取得して視聴する機器である。 The receiving device 10 is a device that receives and processes a signal on which digital contents are superimposed to acquire and view the digital contents.

放送信号受信処理部20は、アンテナ101から受波したデジタル放送などの放送信号を、デジタル放送の規格に応じ処理し、映像、音声、文字などのコンテンツデータを取得し出力する。デジタル放送の規格は、例えば、2Kデジタル放送にて採用されているMPEG2 TS方式や、4K/8Kデジタル放送にて採用されているMPEG Media Tranport方式(MMT方式)などでもよく、複数のチューナにより双方に対応していてもよい。デジタル放送の規格に応じた処理としては、デジタルデータストリームを、映像、音声、文字などのコンテンツデータのデジタルデータストリームに分離するデマルチプレクシング処理、誤り訂正符号復号処理、暗号化されたデータを復号する暗号復号化処理、各コンテンツデータに対して施された符号化(映像符号化、音声符号化、文字符号化など)に対する復号化処理などを含む。 The broadcast signal reception processing unit 20 processes a broadcast signal such as a digital broadcast received from the antenna 101 according to a standard of digital broadcasting, and acquires and outputs content data such as video, audio, and characters. The standard of digital broadcasting may be, for example, the MPEG2 TS system adopted in 2K digital broadcasting, the MPEG Media Transport system (MMT system) adopted in 4K / 8K digital broadcasting, etc., and both are used by a plurality of tuners. It may correspond to. Processing according to digital broadcasting standards includes demultiplexing processing that separates a digital data stream into a digital data stream of content data such as video, audio, and text, error correction code decoding processing, and decoding of encrypted data. Includes the encryption / decryption process to be performed, the decryption process for the coding (video coding, audio coding, character coding, etc.) applied to each content data, and the like.

補助情報出力部21は、制御部90によって要求された情報を放送信号から抽出し、制御部90に出力する。補助情報出力部21は、特に放送信号に含まれる制御情報や番組関連情報などから要求された情報を抽出し、制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 21 extracts the information requested by the control unit 90 from the broadcast signal and outputs it to the control unit 90. The auxiliary information output unit 21 extracts the requested information from the control information and the program-related information included in the broadcast signal, and outputs the information to the control unit 90. The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

コンテンツ処理部30は、通信部102から入力されるデジタルデータに対して、コンテンツサーバ装置200が施した符号化処理に対する復号化処理などを実施し、映像、音声、文字などのコンテンツデータを出力する。具体的には、コンテンツ処理部30は、復号化処理として、例えば、デマルチプレクシング処理(分離処理)、誤り訂正符号復号処理、符号化されたコンテンツデータ(映像、文字、音声など)に対する復号化処理などを実施する。 The content processing unit 30 executes decoding processing for the coding processing performed by the content server device 200 on the digital data input from the communication unit 102, and outputs the content data such as video, audio, and characters. .. Specifically, the content processing unit 30 performs decoding processing such as demultiplexing processing (separation processing), error correction code decoding processing, and decoding of encoded content data (video, characters, audio, etc.). Perform processing etc.

補助情報出力部31は、コンテンツサーバ装置200が出力するデータから制御部90によって要求された情報を抽出し、制御部90に出力する。補助情報出力部31は、特にコンテンツサーバ装置200が出力する制御情報などからコンテンツ番組の配信業者など関連する属性情報などを抽出し、制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 31 extracts the information requested by the control unit 90 from the data output by the content server device 200, and outputs the information to the control unit 90. The auxiliary information output unit 31 extracts related attribute information such as a content program distributor from the control information output by the content server device 200, and outputs the information to the control unit 90. The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

録画再生部40は、例えばディスクプレーヤやHDDレコーダなどであり、放送信号受信処理部20やコンテンツ処理部30が出力するコンテンツデータなどを記憶し、再生要求に従って、記憶したコンテンツデータを出力制御部60へ出力し、映像、文字、音声として表示部103やスピーカ部104から出力する。ユーザは、表示部103やスピーカ部104が出力する映像、文字、音声を視聴することにより、録画再生部40に記憶されたデジタルコンテンツなどを視聴する。なお、本実施形態においては、録画再生部40は、受信装置10の一機能としたが、例えば、インターフェース部105を介した外付けの装置であってもよい。また、受信装置10が複数のチューナ(放送信号受信処理部20に相当)を備えているような場合には、録画再生部40は、放送信号受信処理部20によって受信処理したコンテンツAを視聴しながら、録画再生部40で別の放送信号受信処理部20によって受信処理したコンテンツBを録画することができるようにしてもよい。 The recording / playback unit 40 is, for example, a disc player, an HDD recorder, or the like, stores content data output by the broadcast signal reception processing unit 20 or the content processing unit 30, and outputs the stored content data in accordance with a playback request. It is output to the display unit 103 and the speaker unit 104 as video, characters, and audio. By viewing the video, characters, and audio output by the display unit 103 and the speaker unit 104, the user can view the digital contents stored in the recording / playback unit 40. In the present embodiment, the recording / playback unit 40 is a function of the receiving device 10, but may be, for example, an external device via the interface unit 105. Further, when the receiving device 10 includes a plurality of tuners (corresponding to the broadcast signal reception processing unit 20), the recording / playback unit 40 views the content A received and processed by the broadcast signal reception processing unit 20. However, the recording / playback unit 40 may be able to record the content B received and processed by another broadcast signal reception processing unit 20.

機器データ生成部50は、受信装置10の各機能部(特に放送信号受信処理部20、コンテンツ処理部、録画再生部40)からデータを収集し、視聴機器データを生成する。視聴機器データは、機器個別データと視聴データとを含む。機器個別データは、受信装置10に固有のデータであり、例えば、受信装置10を設置する際に、ユーザがリモコン100などから受信装置10に設定することでもよい。また、視聴解析で用いられる識別番号は、例えば、受信装置10の購入時などに予め割り振られて、機器個別データなどに設定されてもよい。 The device data generation unit 50 collects data from each functional unit (particularly, the broadcast signal reception processing unit 20, the content processing unit, and the recording / playback unit 40) of the receiving device 10 to generate viewing device data. The viewing device data includes device-specific data and viewing data. The device individual data is data unique to the receiving device 10, and for example, when the receiving device 10 is installed, the user may set the receiving device 10 from the remote controller 100 or the like. Further, the identification number used in the viewing analysis may be assigned in advance at the time of purchase of the receiving device 10, for example, and set in the device individual data or the like.

視聴データは、例えば視聴履歴であり、受信装置10により何らかの視聴がされた場合に逐次的に生成されてもよい。具体的には、例えば、放送信号受信処理部20やコンテンツ処理部30、録画再生部40が起動されたタイミングに応じて、各機能部において、デジタルコンテンツを提供するチャンネル、番組名(またはそれに準ずる番組id)、番組を視聴した日時などを記憶し、各機能部が停止されたタイミングに応じて、各機能部は記憶したデータを視聴データとして機器データ生成部50に出力する。機器データ生成部50は、視聴データを必要に応じて加工し、受信装置10の図示せぬ記憶部に記憶する。また、各機能部(特に放送信号受信処理部20、コンテンツ処理部30、録画再生部40)がそれぞれ視聴データを記憶しておき、外部装置から視聴データの送信要求があった時に、各機能部が視聴データを機器データ生成部50に出力し、機器データ生成部50が必要に応じて視聴データに加工を施して、外部装置へ視聴機器データとして出力するようにしてもよい。 The viewing data is, for example, a viewing history, and may be sequentially generated when some viewing is performed by the receiving device 10. Specifically, for example, depending on the timing at which the broadcast signal reception processing unit 20, the content processing unit 30, and the recording / playback unit 40 are activated, each functional unit provides a channel or program name (or a program name equivalent thereto) that provides digital content. The program id), the date and time when the program was viewed, and the like are stored, and each functional unit outputs the stored data as viewing data to the device data generation unit 50 according to the timing when each functional unit is stopped. The device data generation unit 50 processes the viewing data as necessary and stores it in a storage unit (not shown) of the receiving device 10. Further, each function unit (particularly, the broadcast signal reception processing unit 20, the content processing unit 30, and the recording / playback unit 40) stores the viewing data, and when there is a request for transmission of the viewing data from an external device, each function unit May output the viewing data to the device data generation unit 50, and the device data generation unit 50 may process the viewing data as necessary and output the viewing data to an external device as viewing device data.

機器データ生成部50は、生成した視聴機器データを外部装置(特に視聴解析装置300)からの要求に応じて、通信部102へ出力する。視聴機器データは、通信部102からネットワーク500を介して要求した視聴解析装置300へ送信される。また、受信装置10において、視聴機器データの変化を検知した場合に、任意のタイミングで視聴機器データを視聴解析装置300へ送信することでもよい。 The device data generation unit 50 outputs the generated viewing device data to the communication unit 102 in response to a request from an external device (particularly the viewing analysis device 300). The viewing device data is transmitted from the communication unit 102 to the viewing analysis device 300 requested via the network 500. Further, when the receiving device 10 detects a change in the viewing device data, the viewing device data may be transmitted to the viewing analysis device 300 at an arbitrary timing.

補助情報出力部51は、機器データ生成部50が生成した視聴機器データや、受信装置10の各機能から収集した視聴データ、また、視聴解析装置300が出力する各種解析結果データを受信し、制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 51 receives and controls the viewing device data generated by the device data generating unit 50, the viewing data collected from each function of the receiving device 10, and various analysis result data output by the viewing analysis device 300. Output to unit 90. The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

出力制御部60は、放送信号受信処理部20やコンテンツ処理30、録画再生部40が出力したコンテンツデータに対して出力タイミング、表示方法などを調整し、表示部103やスピーカ部104へ出力する。 The output control unit 60 adjusts the output timing, display method, and the like with respect to the content data output by the broadcast signal reception processing unit 20, the content processing 30, and the recording / playback unit 40, and outputs the data to the display unit 103 and the speaker unit 104.

状態切替部62は、表示部103の現在の表示状態(ON状態もしくはOFF状態、表示している状態もしくは表示していない状態など)やスピーカ部104の現在の出力状態(ON状態もしくはOFF状態、音声出力状態もしくは音声をミュートしている状態など)を制御部90からの制御に従って切り替える。制御部90が表示部103の表示状態やスピーカ104の出力状態を管理し、制御部90は、リモコン100やコマンド制御部1からの制御命令に従って状態切替部62を制御する。 The state switching unit 62 includes the current display state of the display unit 103 (ON state or OFF state, display state or non-display state, etc.) and the current output state of the speaker unit 104 (ON state or OFF state, etc.). The audio output state or the audio mute state) is switched according to the control from the control unit 90. The control unit 90 manages the display state of the display unit 103 and the output state of the speaker 104, and the control unit 90 controls the state switching unit 62 according to a control command from the remote controller 100 or the command control unit 1.

センサ部70は、テレビ正面に設置される例えばカメラであり、テレビ装置の正面をカメラで撮影し、撮影した画像から画像認識などを用いて例えばテレビ装置の前にいるユーザを推測することでもよい。 The sensor unit 70 is, for example, a camera installed in front of the television, and the front of the television device may be photographed by the camera, and the user who is in front of the television device may be inferred from the captured image by using image recognition or the like. ..

補助情報出力部71は、センサ部70が推測したユーザ情報を制御部90に出力する。制御部90に出力された情報は、必要に応じて加工が施され、補助情報としてコマンド制御部1にて使用される。 The auxiliary information output unit 71 outputs the user information estimated by the sensor unit 70 to the control unit 90. The information output to the control unit 90 is processed as necessary and used by the command control unit 1 as auxiliary information.

メイン電源部80は、受信装置10のメイン機能の電源であり、例えば、テレビ装置の表示部103やスピーカ部104にデジタルコンテンツを出力したり、出力を止めたりする(この操作をテレビ装置のON−OFF操作と称する)際に使われる電源である。 The main power supply unit 80 is a power source for the main function of the receiving device 10. For example, the digital content is output to or stopped from the display unit 103 or the speaker unit 104 of the television device (this operation is turned on in the television device). It is a power supply used for (referred to as -OFF operation).

状態切替部82は、メイン電源部80の現在の状態、すなわちテレビ装置のON−OFFの状態を制御部90からの制御に従って切り替える。制御部90がメイン電源部80の現在の状態を管理し、制御部90は、リモコン100やコマンド制御部1からの制御命令に従って状態切替部82を制御する。 The state switching unit 82 switches the current state of the main power supply unit 80, that is, the ON-OFF state of the television device according to the control from the control unit 90. The control unit 90 manages the current state of the main power supply unit 80, and the control unit 90 controls the state switching unit 82 according to a control command from the remote controller 100 or the command control unit 1.

制御部90は、受信装置10の各機能を制御する。具体的には、制御部90は、インターフェース部105から各種制御信号を受信し、受信装置10の各機能を制御する。例えば、ユーザが放送信号によるコンテンツを視聴するか、コンテンツサーバ装置200からのコンテンツを視聴するかをリモコン100から指定した場合に、制御部90は、インターフェース部105を介してリモコンからの制御信号を受信し、受信装置10の機能を制御し、ユーザが指定した動作をさせる。なお、図2において、制御部90との間で特に結線をしていない機能ブロックとの間においてもデータのやり取りを行うことにしてもよい。 The control unit 90 controls each function of the receiving device 10. Specifically, the control unit 90 receives various control signals from the interface unit 105 and controls each function of the receiving device 10. For example, when the user specifies from the remote controller 100 whether to view the content by the broadcast signal or the content from the content server device 200, the control unit 90 transmits the control signal from the remote controller via the interface unit 105. It receives, controls the function of the receiving device 10, and causes the operation specified by the user. Note that, in FIG. 2, data may be exchanged with a functional block that is not particularly connected to the control unit 90.

また本実施形態における制御部90は、インターフェース部105を介してコマンド制御部1からの実行コマンドを受信し、実行コマンドに従って受信装置10内の各機能の制御を実施する。 Further, the control unit 90 in the present embodiment receives an execution command from the command control unit 1 via the interface unit 105, and controls each function in the receiving device 10 according to the execution command.

補助情報管理部91は、各機能内の補助情報出力部(補助情報出力部21、補助情報出力部31、補助情報出力部41、補助情報出力部51、補助情報出力部71など)が出力する補助情報を受信し、図示せぬ記憶部に記憶する。補助情報管理部91は、記憶した各機能の補助情報をインターフェース105からコマンド制御部1に送信する。 The auxiliary information management unit 91 is output by the auxiliary information output unit (auxiliary information output unit 21, auxiliary information output unit 31, auxiliary information output unit 41, auxiliary information output unit 51, auxiliary information output unit 71, etc.) in each function. Auxiliary information is received and stored in a storage unit (not shown). The auxiliary information management unit 91 transmits the stored auxiliary information of each function from the interface 105 to the command control unit 1.

補助情報管理部91において記憶する情報は、予め決められた項目を各機能内の補助情報出力部に設定しておき、各機能において補助情報が更新された時点で補助情報出力部が自発的に補助情報管理部91に出力するようにしてもよい。また、補助情報管理部91が必要に応じて各機能の補助情報出力部に補助情報を要求するようにしてもよい。 For the information to be stored in the auxiliary information management unit 91, predetermined items are set in the auxiliary information output unit in each function, and the auxiliary information output unit voluntarily sets the auxiliary information when the auxiliary information is updated in each function. It may be output to the auxiliary information management unit 91. Further, the auxiliary information management unit 91 may request auxiliary information from the auxiliary information output unit of each function as needed.

状態情報管理部92は、各機能内の状態切替部(状態切替部62、状態切替部82など)の状態情報を図示せぬ記憶部に記憶する。状態情報管理部92は、インターフェース105を介して記憶した各機能の状態情報をコマンド制御部1に送信する。本実施形態においては、制御部90が、各機能の状態を制御するため、状態情報管理部92の状態情報は常に最新の状態に保たれる。なお、状態情報管理部92が記憶する情報については、予め決められた項目を各機能内の図示せぬ状態情報出力部に設定しておき、各機能において状態情報が更新された時点で状態情報出力部が自発的に状態情報管理部91に出力するようにしてもよい。また、状態情報管理部92が必要に応じて各機能の状態情報出力部に状態情報を要求するようにしてもよい。 The state information management unit 92 stores the state information of the state switching units (state switching unit 62, state switching unit 82, etc.) in each function in a storage unit (not shown). The state information management unit 92 transmits the state information of each function stored via the interface 105 to the command control unit 1. In the present embodiment, since the control unit 90 controls the state of each function, the state information of the state information management unit 92 is always kept up to date. Regarding the information stored in the state information management unit 92, predetermined items are set in the state information output unit (not shown) in each function, and the state information is updated when the state information is updated in each function. The output unit may voluntarily output to the state information management unit 91. Further, the state information management unit 92 may request the state information from the state information output unit of each function as needed.

時刻管理部93は、受信装置10の時刻を管理する。受信装置10の内部に時計を持っていてもよいし、放送信号などから時刻を抽出して得てもよい。 The time management unit 93 manages the time of the receiving device 10. The clock may be held inside the receiving device 10, or the time may be extracted from a broadcast signal or the like.

通信部102は、ネットワーク500に接続された各種装置と、例えばTCP/IP、UDP/IPといった予め決められた通信規約などに従ってデータの送受信処理をする。 The communication unit 102 performs data transmission / reception processing with various devices connected to the network 500 in accordance with predetermined communication rules such as TCP / IP and UDP / IP.

表示部103は、映像や文字を表示する例えばモニタである。スピーカ部104は音声を出力する例えばスピーカである。表示部103、スピーカ部104は、出力制御部60が出力したコンテンツデータを映像、文字、音声として出力する。ユーザは、表示部103、スピーカ部104が出力する映像、文字、音声を視聴することにより、放送信号やコンテンツサーバ装置200、その他録画再生部40によって提供されるデジタルコンテンツを視聴する。 The display unit 103 is, for example, a monitor that displays images and characters. The speaker unit 104 is, for example, a speaker that outputs sound. The display unit 103 and the speaker unit 104 output the content data output by the output control unit 60 as video, characters, and audio. By viewing the video, characters, and audio output by the display unit 103 and the speaker unit 104, the user can view the broadcast signal, the content server device 200, and other digital contents provided by the recording / playback unit 40.

インターフェース部105は、リモコン100など外部から受信装置10を制御するためのインターフェースであり、例えば、リモコン100や受信装置10に付属する図示せぬスイッチなどから制御信号を受信し、受信装置10の制御部90へ出力する。リモコン100のかわりに図示せぬスマートフォンなどの端末からの制御信号を受信するインターフェースを有してもよい。また、インターフェース部105は外部装置と接続するためのインターフェースを有してもよい。例えば、受信装置10と図示せぬ外付けのHDDレコーダを接続するためのインターフェースであってもよい。この場合、ユーザは図示せぬ外付けのHDDレコーダが出力するデジタルコンテンツを表示部103、スピーカ部104にて視聴することができる。 The interface unit 105 is an interface for controlling the receiving device 10 from the outside such as the remote controller 100. For example, the interface unit 105 receives a control signal from the remote controller 100 or a switch (not shown) attached to the receiving device 10 to control the receiving device 10. Output to unit 90. Instead of the remote controller 100, it may have an interface for receiving a control signal from a terminal such as a smartphone (not shown). Further, the interface unit 105 may have an interface for connecting to an external device. For example, it may be an interface for connecting the receiving device 10 and an external HDD recorder (not shown). In this case, the user can view the digital contents output by the external HDD recorder (not shown) on the display unit 103 and the speaker unit 104.

また、本実施形態におけるインターフェース105は、コマンド制御部1のインターフェース部15と通信可能なインターフェースを有しており、例えばインターフェースは各種シリアルバスでもよい。また、インターフェース105は、コマンド制御部1が出力する実行コマンドを受信し、制御部90へ実行コマンドを出力する。 Further, the interface 105 in the present embodiment has an interface capable of communicating with the interface unit 15 of the command control unit 1, for example, the interface may be various serial buses. Further, the interface 105 receives the execution command output by the command control unit 1 and outputs the execution command to the control unit 90.

図3は、同実施形態に係るコマンド制御部の機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the functional configuration of the command control unit according to the embodiment.

コマンド制御部1においてコマンド生成部11は、コマンド認識部13が音声認識によって生成する認識コマンドと、補助情報取得部16や状態取得部17が取得する追加情報(補助情報と状態情報)とに基づいて、実行コマンドを生成し、コマンド送信部18からコマンド制御部1の外部に出力する。以下各機能ブロックについて説明する。 In the command control unit 1, the command generation unit 11 is based on the recognition command generated by the command recognition unit 13 by voice recognition and the additional information (auxiliary information and state information) acquired by the auxiliary information acquisition unit 16 and the state acquisition unit 17. Then, an execution command is generated and output from the command transmission unit 18 to the outside of the command control unit 1. Each functional block will be described below.

コマンド生成部11は、記憶部111に認識コマンドと追加情報と実行コマンドの組み合わせ(以降、条件組合わせリストと称する)を記憶している。条件組合わせリストは、予めユーザが設定することができる。条件組合わせリストはコマンド生成部11のコンピュータプログラムに組み込まれていてもよいし、例えばネットワーク500を介して外部のサーバからダウンロードしてもよい。コマンド生成部11は、認識コマンドと、追加情報とが入力されると、条件組合わせリストを参照して実行コマンドを生成し、出力する。 The command generation unit 11 stores a combination of the recognition command, additional information, and the execution command (hereinafter referred to as a condition combination list) in the storage unit 111. The condition combination list can be set by the user in advance. The condition combination list may be incorporated in the computer program of the command generation unit 11, or may be downloaded from an external server via, for example, the network 500. When the recognition command and the additional information are input, the command generation unit 11 generates an execution command by referring to the condition combination list and outputs the execution command.

音声検知部12は、例えばマイクロフォンであり、ユーザが発した音声を受波して、サンプリングなどにより受波した音声波形の音声データを得て、出力する。 The voice detection unit 12 is, for example, a microphone, receives a voice emitted by a user, obtains voice data of a voice waveform received by sampling or the like, and outputs the voice data.

コマンド認識部13は、音声検知部12が出力する音声データから音声認識を実施し、ユーザの発したコマンドを推定もしくは認識し、認識コマンドをテキストデータとして出力する。コマンド認識部13は、音声認識を実行する音声データ処理部(音声認識エンジン)を自身でコマンド認識部13内に備えることもできるが、音声認識エンジンを備えたネットワーク500上の音声認識装置400に音声データを送信して、認識コマンドを得ることもできる。音声認識装置400を利用することで、コマンド認識部13の製造コストなどを下げることができる。また音声認識装置400が多数の受信装置10から音声データを得て音声認識を実施することにより、音声認識装置400は学習効果を得て音声認識の性能向上を図ることができるなどのメリットもある。ただし、音声認識装置400を使用するためにはネットワーク500を介するため、音声認識の処理遅延が大きいというデメリットがあり、その点、コマンド認識部13の内部の音声認識エンジンを利用する場合は音声認識の処理遅延は小さくできるメリットがある。また、図3においては、音声検知部12(スピーカ)を内蔵する例について示しているが、スマートスピーカなどを用いることでもよい。例えば、スマートスピーカはインターフェース105に接続して使用する。具体的には、音声認識エンジンを搭載したスマートスピーカが認識コマンドを生成し
コマンド制御部1(もしくはコマンド生成部11)がスマートスピーカの生成した認識コマンドを、例えば、インターフェース105を介して取得することでもよい。取得した認識コマンドはコマンド生成部11において実行コマンドの生成に用いられることでもよい。
The command recognition unit 13 performs voice recognition from the voice data output by the voice detection unit 12, estimates or recognizes a command issued by the user, and outputs the recognition command as text data. The command recognition unit 13 may include a voice data processing unit (voice recognition engine) for executing voice recognition in the command recognition unit 13, but the voice recognition device 400 on the network 500 equipped with the voice recognition engine You can also send voice data to get recognition commands. By using the voice recognition device 400, it is possible to reduce the manufacturing cost of the command recognition unit 13. Further, since the voice recognition device 400 obtains voice data from a large number of receiving devices 10 and performs voice recognition, the voice recognition device 400 has an advantage that a learning effect can be obtained and the performance of voice recognition can be improved. .. However, since the voice recognition device 400 is used via the network 500, there is a demerit that the processing delay of voice recognition is large. In that respect, when the voice recognition engine inside the command recognition unit 13 is used, voice recognition is performed. There is a merit that the processing delay of can be reduced. Further, although FIG. 3 shows an example in which the voice detection unit 12 (speaker) is built in, a smart speaker or the like may be used. For example, the smart speaker is used by connecting to the interface 105. Specifically, a smart speaker equipped with a voice recognition engine generates a recognition command, and a command control unit 1 (or a command generation unit 11) acquires a recognition command generated by the smart speaker, for example, via an interface 105. It may be. The acquired recognition command may be used in the command generation unit 11 to generate an execution command.

ユーザインターフェース部14は、例えばパソコンのキーボードなどのように文字入力できるインターフェースである。具体的にはユーザはユーザインターフェース部14から、記憶部111に条件組合わせリストを設定する。なお、リモコン100やスマートフォンなどを用いて、条件組合わせリストを記憶部111に設定することにしてもよい。また、コマンド生成部11が受信装置10の外部に設置された図示せぬ条件組合わせリストを提供するサーバから記憶部111に条件組合わせリストをダウンロードすることでもよい。 The user interface unit 14 is an interface capable of inputting characters, such as a keyboard of a personal computer. Specifically, the user sets a condition combination list from the user interface unit 14 to the storage unit 111. The condition combination list may be set in the storage unit 111 by using the remote controller 100, a smartphone, or the like. Further, the command generation unit 11 may download the condition combination list to the storage unit 111 from a server provided outside the receiving device 10 that provides the condition combination list (not shown).

インターフェース部15は、インターフェース部105と各種データ通信をする。具体的には、インターフェース部15は、インターフェース部105から補助情報や状態情報を受信する。また、インターフェース部15は、インターフェース部105に対してコマンド生成部11の生成した実行コマンドを送信する。 The interface unit 15 communicates with the interface unit 105 in various ways. Specifically, the interface unit 15 receives auxiliary information and state information from the interface unit 105. Further, the interface unit 15 transmits the execution command generated by the command generation unit 11 to the interface unit 105.

補助情報取得部16は、補助情報管理部91からインターフェース部15を介して補助情報を取得する。補助情報取得部16は、例えばコマンド認識部13から認識コマンドが出力されるタイミングに応じて、補助情報管理部91に対して補助情報の取得要求を出力し、補助情報管理部91から補助情報を取得してもよい。 The auxiliary information acquisition unit 16 acquires auxiliary information from the auxiliary information management unit 91 via the interface unit 15. The auxiliary information acquisition unit 16 outputs an auxiliary information acquisition request to the auxiliary information management unit 91 in accordance with the timing when the recognition command is output from the command recognition unit 13, for example, and the auxiliary information management unit 91 outputs the auxiliary information. You may get it.

状態取得部17は、状態情報管理部92からインターフェース部15を介して状態情報を取得する。例えばコマンド認識部13が認識コマンドを出力するタイミングもしくはコマンド生成部11が認識コマンドを受信するタイミングに応じて、状態情報取得部16が状態情報管理部92に対して状態情報の取得要求を出力し、状態情報管理部92から状態情報を取得してもよい。 The state acquisition unit 17 acquires state information from the state information management unit 92 via the interface unit 15. For example, the status information acquisition unit 16 outputs a status information acquisition request to the status information management unit 92 according to the timing when the command recognition unit 13 outputs the recognition command or the timing when the command generation unit 11 receives the recognition command. , The state information may be acquired from the state information management unit 92.

コマンド送信部18は、コマンド生成部11が生成し、出力した実行コマンドをインターフェース部15から制御部90へ送信する。また、通信部102を介してネットワーク500上の装置や機器に送信することもできる。 The command transmission unit 18 transmits the execution command generated and output by the command generation unit 11 from the interface unit 15 to the control unit 90. It can also be transmitted to a device or device on the network 500 via the communication unit 102.

制御部19は、コマンド制御部1内の各機能ブロックを制御する。なお、図3において、制御部19との間で特に結線をしていない機能ブロックとの間においてもデータのやり取り(制御)を行うことにしてもよい。 The control unit 19 controls each functional block in the command control unit 1. Note that, in FIG. 3, data may be exchanged (controlled) with a functional block that is not particularly connected to the control unit 19.

音声分析部121は、音声検知部12から出力される音声データに対して、例えば周波数分析(声紋分析)を実施し、大人子供、年齢、性別など音声源の属性を推測して音声源推測結果を得る。音声分析部121は、音声源推測結果に対して必要な加工を施して補助情報として補助情報取得部16に出力する。また音声分析部121により得られる音声源推測結果は、コマンド生成部11、コマンド認識部13、コマンド送信部18などの起動の可否にも利用することができる。音声源推測結果により、例えば音声を発したユーザが子供である場合に、実行コマンドを出力させないようにするために、音声分析部121が音声源推測結果を制御部19に出力すると、制御部19はコマンド生成部11、コマンド認識部13、コマンド送信部18の機能を有効にしたり無効にしたりすることでもよい。 The voice analysis unit 121 performs frequency analysis (voice print analysis) on the voice data output from the voice detection unit 12, estimates the attributes of the voice source such as adults and children, age, and gender, and estimates the voice source. To get. The voice analysis unit 121 performs necessary processing on the voice source estimation result and outputs it to the auxiliary information acquisition unit 16 as auxiliary information. Further, the voice source estimation result obtained by the voice analysis unit 121 can also be used for whether or not to activate the command generation unit 11, the command recognition unit 13, the command transmission unit 18, and the like. According to the voice source estimation result, for example, when the user who emitted the voice is a child, the voice analysis unit 121 outputs the voice source estimation result to the control unit 19 in order to prevent the execution command from being output. May enable or disable the functions of the command generation unit 11, the command recognition unit 13, and the command transmission unit 18.

図4は、同実施形態において、音声コマンドにより制御できる制御対象部位と制御対象部位の状態の一例を示す図である。 FIG. 4 is a diagram showing an example of a control target portion and a state of the control target portion that can be controlled by a voice command in the same embodiment.

左の列から、「NO」、「制御対象部位」、「取りうる状態値」、「音声コマンド」を示している。「制御対象部位」は、音声コマンドにより制御できる受信装置10の部位である。「取りうる状態値」は、「制御対象部位」の取りうる状態である。「音声コマンド」は、「制御対象部位」に対して状態値を切り替える際に、ユーザが発声する制御命令である。 From the left column, "NO", "control target part", "possible state value", and "voice command" are shown. The “control target portion” is a portion of the receiving device 10 that can be controlled by a voice command. The "possible state value" is the possible state of the "controlled part". The "voice command" is a control command uttered by the user when the state value is switched with respect to the "control target portion".

「NO」=1は、受信装置10の「制御対象部位」であるメイン電源部80の「取りうる状態値」がONとOFFの2状態であることを示す。この場合、状態値を切り替えるための「音声コマンド」は、状態値をONにする場合は「電源ON」であり、状態値をOFFにする場合は「電源OFF」である。すなわち、テレビ装置の電源をONにするためは、ユーザは「電源ON」と発声し、テレビ装置の電源はOFFにするためには、ユーザは「電源OFF」と発声する。 “NO” = 1 indicates that the “possible state value” of the main power supply unit 80, which is the “control target part” of the receiving device 10, is in two states, ON and OFF. In this case, the "voice command" for switching the state value is "power ON" when the state value is turned ON, and "power OFF" when the state value is turned OFF. That is, in order to turn on the power of the television device, the user utters "power ON", and in order to turn off the power of the television device, the user utters "power off".

「NO」=2は、受信装置10の「制御対象部位」である出力制御部60の状態切替部62の「取りうる状態値」がONとOFFの2状態であることを示す。すなわち、テレビ装置の音量をONにしてスピーカ部104から音声を出力させるためには、ユーザは「音量ON」と発声し、テレビ装置の音量はOFFにしてスピーカ部104から音声が出力されなくする(ミュートする)ためには、ユーザは「音量OFF」と発声する。 “NO” = 2 indicates that the “possible state value” of the state switching unit 62 of the output control unit 60, which is the “control target part” of the receiving device 10, is in two states of ON and OFF. That is, in order to turn on the volume of the TV device and output the sound from the speaker unit 104, the user utters "volume ON" and turns off the volume of the TV device so that the sound is not output from the speaker unit 104. To (mute), the user says "volume off".

「NO」=3は、デジタルコンテンツを表示部103やスピーカ部104に出力している状態にあるコンテンツ出力装置である。コンテンツ出力装置は、放送信号受信処理部20、コンテンツ処理部30、録画再生部40の総称である。具体的には、「取りうる状態値」の列における「チューナ」が放送信号受信処理部20、「ネット」がコンテンツ処理部30、「レコーダ」が録画再生部40にそれぞれ相当する。例えば、放送信号受信処理部20を受信状態にして放送信号によるコンテンツを表示部103、スピーカ部104に出力させるためには、ユーザは「チューナ」と発声する。コンテンツ処理部30を受信状態にして表示部103、スピーカ部104にコンテンツサーバ装置200からのコンテンツを出力させるためには、ユーザは「ネット」と発声する。録画再生部40を再生状態にして表示部103、スピーカ部104に出力させるためには、ユーザは「レコーダ」と発声する。 “NO” = 3 is a content output device in a state where digital content is output to the display unit 103 and the speaker unit 104. The content output device is a general term for a broadcast signal reception processing unit 20, a content processing unit 30, and a recording / playback unit 40. Specifically, the "tuner" in the "possible state value" column corresponds to the broadcast signal reception processing unit 20, the "net" corresponds to the content processing unit 30, and the "recorder" corresponds to the recording / playback unit 40. For example, in order to put the broadcast signal reception processing unit 20 in the receiving state and output the content by the broadcast signal to the display unit 103 and the speaker unit 104, the user utters "tuner". In order to put the content processing unit 30 in the receiving state and cause the display unit 103 and the speaker unit 104 to output the content from the content server device 200, the user utters "net". In order to put the recording / playback unit 40 in the playback state and output it to the display unit 103 and the speaker unit 104, the user utters "recorder".

「NO」=4は、デジタルコンテンツを表示部103やスピーカ部104に出力している状態にあるチューナである。「取りうる状態値」のBS、CS、地デジは、それぞれBSデジタル放送、CSデジタル放送、地上デジタルテレビジョン放送(地デジ放送)のチューナを示している。例えば、BSデジタル放送を受信状態にして表示部103、スピーカ部104にBSデジタル放送のコンテンツを出力させるためには、ユーザは「BS」と発声する。CSデジタル放送を受信状態にして表示部103、スピーカ部104にCSデジタル放送のコンテンツを出力させるためには、ユーザは「CS」と発声する。地デジ放送を受信状態にして表示部103、スピーカ部104に地デジ放送のコンテンツを出力させるためには、ユーザは「地デジ」と発声する。 “NO” = 4 is a tuner in which digital contents are output to the display unit 103 and the speaker unit 104. BS, CS, and terrestrial digital broadcasting of "possible state values" indicate tuners for BS digital broadcasting, CS digital broadcasting, and terrestrial digital television broadcasting (terrestrial digital broadcasting), respectively. For example, in order to set the BS digital broadcast in the receiving state and have the display unit 103 and the speaker unit 104 output the contents of the BS digital broadcast, the user utters "BS". In order to set the CS digital broadcast in the receiving state and have the display unit 103 and the speaker unit 104 output the contents of the CS digital broadcast, the user utters "CS". In order to receive the terrestrial digital broadcasting and have the display unit 103 and the speaker unit 104 output the contents of the terrestrial digital broadcasting, the user utters "terrestrial digital broadcasting".

「NO」=5は、コンテンツ出力装置が表示部103やスピーカ部104に出力しているチャネル(番組)である。「取りうる状態値」の1ch、2ch、3chはチャネル番号を示している。例えば、1chを受信状態にして表示部103、スピーカ部104に1chの番組を出力させる場合は、ユーザが「1ch」と発声する。他のチャネルについても同様である。なお、チャネルは通常、コンテンツ出力装置ごとかつチューナごとに定義されることでもよい。例えばコンテンツ出力装置を放送信号受信処理部20とする場合は、チューナ「BS」、「CS」、「地デジ」ごとにチャネル番号が割り振ることでもよい。また、コンテンツ出力装置のすべてのチャネルに対して統一的に固有のチャネル番号を割り振ってもよい。その場合は、そのチャネル番号によって、コンテンツ出力装置の種類、チューナの種類を特定できる。 “NO” = 5 is a channel (program) output by the content output device to the display unit 103 and the speaker unit 104. The "possible state values" 1ch, 2ch, and 3ch indicate channel numbers. For example, when 1ch is set to the receiving state and the display unit 103 and the speaker unit 104 output the 1ch program, the user utters "1ch". The same applies to other channels. It should be noted that the channel may usually be defined for each content output device and for each tuner. For example, when the content output device is the broadcast signal reception processing unit 20, channel numbers may be assigned to each of the tuners “BS”, “CS”, and “terrestrial digital”. Further, a unique channel number may be uniformly assigned to all channels of the content output device. In that case, the type of the content output device and the type of the tuner can be specified by the channel number.

また「取りうる状態値」として、「ホーム(帰る場所)」という状態を持つことでもよい。「ホーム」は、ユーザが設定できる状態値である。 In addition, it may have a state of "home (place to return)" as a "possible state value". "Home" is a state value that can be set by the user.

例えば、NO3の例において、制御対象部位であるコンテンツ出力装置の「ホーム」状態値として「チューナ」を設定した場合について説明する。例えば、ユーザがコンテンツ出力装置「ネット」の番組を視聴中に、すなわちコンテンツ出力装置の現状態が「ネット」である時に、ユーザが音声コマンドとして「ネット」と発声するなどして、コマンド認識部13において認識コマンドとして「ネット」が認識、生成されたとする。コマンド生成部11は、認識コマンドが入力されると、「ホーム」である「チューナ」に状態を切り替えるための実行コマンド「チューナ」を生成、送信し、コンテンツ出力装置を「チューナ」に切り替える。 For example, in the example of NO3, a case where “tuner” is set as the “home” state value of the content output device which is the control target part will be described. For example, when the user is watching a program on the content output device "net", that is, when the current state of the content output device is "net", the user utters "net" as a voice command, and the command recognition unit It is assumed that "net" is recognized and generated as a recognition command in 13. When the recognition command is input, the command generation unit 11 generates and transmits an execution command "tuner" for switching the state to the "home" "tuner", and switches the content output device to the "tuner".

例えば、NO4の例において、制御対象部位であるチューナの「ホーム」状態値として「地デジ」を設定した場合について説明する。例えば、ユーザが「BS」のチューナを視聴中に、すなわちチューナの現状態が「BS」である時に、ユーザが音声コマンドとして「BS」と発声するなどして、コマンド認識部13において認識コマンドとして「BS」が認識、生成されたとする。コマンド生成部11は、認識コマンドが入力されると、「ホーム」である「地デジ」に状態を切り替えるための実行コマンド「地デジ」を生成、送信し、チューナを「地デジ」に切り替える。 For example, in the example of NO4, a case where "terrestrial digital" is set as the "home" state value of the tuner which is the control target part will be described. For example, when the user is watching the tuner of "BS", that is, when the current state of the tuner is "BS", the user utters "BS" as a voice command, and the command recognition unit 13 uses it as a recognition command. It is assumed that "BS" is recognized and generated. When the recognition command is input, the command generation unit 11 generates and transmits an execution command "terrestrial digital" for switching the state to "terrestrial digital" which is "home", and switches the tuner to "terrestrial digital".

NO5の例において、制御対象部位であるチャネルの「ホーム」状態値として「1ch」を設定した場合について説明する。例えば、ユーザが「2ch」のチャネルを視聴中に、すなわちチャネルの現状態が「2ch」である時に、ユーザが音声コマンドとして「2ch」と発声するなどして、コマンド認識部13において認識コマンドとして「2ch」が認識、生成されたとする。コマンド生成部11は、認識コマンドが入力されると、「ホーム」である「1ch」に状態を切り替えるための実行コマンド「1ch」を生成、送信し、チャネルを「1ch」に切り替える。 In the example of NO5, a case where “1ch” is set as the “home” state value of the channel which is the control target part will be described. For example, when the user is watching the channel of "2ch", that is, when the current state of the channel is "2ch", the user utters "2ch" as a voice command, and the command recognition unit 13 uses the recognition command. It is assumed that "2ch" is recognized and generated. When the recognition command is input, the command generation unit 11 generates and transmits an execution command "1ch" for switching the state to "1ch" which is "home", and switches the channel to "1ch".

なお、上記の「ホーム」状態値への設定は、ユーザが設定してもよいし、前回テレビ装置の電源をOFFにする直前の状態値が自動設定されることでもよい。また、音声コマンドとして「ホーム」があってもよい。例えば、ユーザが音声コマンドを「ホーム」と発声し、「ホーム」が認識コマンドとして生成されると、「ホーム」として設定された状態値に状態が移ることでもよい。 The above-mentioned setting to the "home" state value may be set by the user, or the state value immediately before the power of the television device was turned off last time may be automatically set. In addition, there may be "home" as a voice command. For example, when the user utters a voice command as "home" and "home" is generated as a recognition command, the state may shift to the state value set as "home".

図5は、同実施形態において、利用可能な補助情報の一例を示す図である。 FIG. 5 is a diagram showing an example of auxiliary information that can be used in the same embodiment.

左の列から、「NO」、「情報源」、「補助情報」、「情報値」を示している。「情報源」は、「補助情報」の発信源もしくは「補助情報」の抽出元(抽出した部位)である。「補助情報」は、本実施形態においてコマンド制御部1が実行コマンドを作成する場合に利用する情報である。「情報値」は「補助情報」の値である。 From the left column, "NO", "information source", "auxiliary information", and "information value" are shown. The "information source" is the source of the "auxiliary information" or the extraction source (extracted part) of the "auxiliary information". The "auxiliary information" is information used when the command control unit 1 creates an execution command in the present embodiment. The "information value" is the value of the "auxiliary information".

「NO」=1は、「情報源」である受信装置10の時刻管理部93が、時刻を補助情報に含めることを示している。 “NO” = 1 indicates that the time management unit 93 of the receiving device 10 which is the “information source” includes the time in the auxiliary information.

「NO」=2は、「情報源」である受信装置10の音声分析部121が実施する音声分析により得られる声紋から、音声の発信源の属性を決定し、音声の発信源の属性を補助情報に含めることを示している。音声の発信源の属性は、例えば、発信源の年齢や、年齢により定義した大人子供の分類、また年齢により定義した幼児、幼稚園児、小学生、中学生、高校生、大学生、社会人などの分類であるユーザ識別情報である。 “NO” = 2 determines the attribute of the voice source from the voice print obtained by the voice analysis performed by the voice analysis unit 121 of the receiving device 10 which is the “information source”, and assists the attribute of the voice source. Indicates that it should be included in the information. The attributes of the voice source are, for example, the age of the source, the classification of adults and children defined by age, and the classification of infants, kindergarten children, elementary school students, junior high school students, high school students, university students, working adults, etc. defined by age. User identification information.

「NO」=3は、「情報源」である受信装置10のコマンド認識部13が実施する音声認識により得られる音声認識結果から、ユーザ識別情報を決定し、ユーザ識別情報の属性を補助情報に含めることを示している。 “NO” = 3 determines the user identification information from the voice recognition result obtained by the voice recognition performed by the command recognition unit 13 of the receiving device 10 which is the “information source”, and uses the attribute of the user identification information as auxiliary information. Indicates to include.

「NO」=4、5、6は、それぞれ「情報源」である受信装置10の音声分析部121が実施する音声分析により得られる声の強さ、声の高さ、声の速さから、それぞれ補助情報として声の強さの強弱、声の高さの高低、声の速さの遅速を提供することを示している。 “NO” = 4, 5 and 6 are based on the voice strength, voice pitch and voice speed obtained by the voice analysis performed by the voice analysis unit 121 of the receiving device 10 which is the “information source”, respectively. It is shown that the strength of the voice, the pitch of the voice, and the slowness of the voice are provided as auxiliary information, respectively.

「NO」=7は、「情報源」である受信装置10のセンサ部70(例えばカメラ)が、カメラで取得した画像認識結果から、ユーザ識別情報を決定し、ユーザ識別情報の属性を補助情報に含めることを示している。 “NO” = 7 means that the sensor unit 70 (for example, a camera) of the receiving device 10 which is the “information source” determines the user identification information from the image recognition result acquired by the camera, and the attribute of the user identification information is supplementary information. Indicates that it should be included in.

「NO」=8から11は、それぞれ「情報源」である受信装置10の放送信号受信処理部20が放送信号から抽出した「放送事業者」、「番組放送時間帯」、「番組種類」、「番組名」を補助情報に含めることを示している。「放送事業者」の場合は、例えば業者A、業者B、業者Cなどの業者の名称を補助情報の値とする。「番組放送時間帯」の場合は、放送時間帯を補助情報の値とする。「番組種類」の場合は、例えばドラマ、スポーツ、音楽、ニュース、教育、緊急情報など番組の種類を補助情報の値とする。「番組名」の場合は、例えば番組A、番組B、番組Cなどの番組の名称を補助情報の値とする。 "NO" = 8 to 11 are "broadcaster", "program broadcast time zone", "program type", respectively, extracted from the broadcast signal by the broadcast signal reception processing unit 20 of the receiving device 10 which is the "information source". Indicates that the "program name" should be included in the auxiliary information. In the case of "broadcasting company", for example, the name of a company such as company A, company B, or company C is used as the value of the auxiliary information. In the case of "program broadcasting time zone", the broadcasting time zone is used as the value of the auxiliary information. In the case of "program type", the value of the auxiliary information is, for example, the type of program such as drama, sports, music, news, education, and emergency information. In the case of "program name", for example, the name of a program such as program A, program B, or program C is used as the value of the auxiliary information.

「NO」=12は、「情報源」である視聴解析装置300が提供する解析結果により得られるデモグラを情報補助に含める。 “NO” = 12 includes the demogra obtained from the analysis result provided by the viewing analysis device 300, which is the “information source”, in the information assistance.

「NO」=13から16は、それぞれ「情報源」である受信装置10の録画再生部20(外付けのレコーダなども含めてよい)が番組を録画した際に放送波から抽出した「放送事業者」、「番組放送時間帯」、「番組種類」、「番組名」を補助情報に含めることを示している。 “NO” = 13 to 16 are “broadcasting business” extracted from the broadcast wave when the recording / playback unit 20 (including an external recorder) of the receiving device 10 which is the “information source” records the program. It indicates that "person", "program broadcast time zone", "program type", and "program name" are included in the auxiliary information.

「NO」=17から20は、それぞれ「情報源」である受信装置10のコンテンツサーバ装置200が送信するコンテンツに付随する情報から抽出した「配信事業者」、「番組放送時間帯」、「番組種類」、「番組名」を補助情報に含めることを示している。またデジタルコンテンツを録画したユーザ(特に録画管理者と称する)を補助情報に含めてよい。 "NO" = 17 to 20 are "distributor", "program broadcasting time zone", and "program" extracted from the information associated with the content transmitted by the content server device 200 of the receiving device 10 which is the "information source", respectively. Indicates that "type" and "program name" should be included in the auxiliary information. In addition, the user who recorded the digital content (particularly referred to as a recording manager) may be included in the auxiliary information.

(第1の実施形態)
本実施形態においては、ユーザが発した音声コマンドと追加情報に基づいて、受信装置のメイン電源のON−OFFを制御する場合の動作例について示す。
(First Embodiment)
In the present embodiment, an operation example in which the ON-OFF of the main power supply of the receiving device is controlled based on the voice command issued by the user and the additional information will be described.

図6は、同実施形態において、コマンド制御部が音声コマンドを受信して実行コマンドを送信するための処理動作例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of processing operation for the command control unit to receive a voice command and transmit an execution command in the same embodiment.

ユーザは、受信装置10のメイン電源のON−OFFを制御するために、音声コマンド「電源ON」もしくは「電源OFF」を発したとする。音声検知部が音声を検知する(ステップS11のYES)。音声検知部が音声を検知しない場合は、検知するまで待つ(ステップS11のNO)。音声検知部が音声を検知するまたは検知しないという判断は、例えば、入力される音声の強度に対して閾値を設定して、閾値以上であれば音声が検知されたと判断し、閾値未満であれば音声は検知されていないと判断してもよい。 It is assumed that the user issues a voice command "power ON" or "power OFF" in order to control ON-OFF of the main power of the receiving device 10. The voice detection unit detects the voice (YES in step S11). If the voice detection unit does not detect the voice, wait until it is detected (NO in step S11). To determine whether the voice detector detects or does not detect voice, for example, a threshold is set for the intensity of the input voice, and if it is equal to or more than the threshold, it is determined that the voice is detected, and if it is less than the threshold It may be determined that the voice is not detected.

音声検知部12は、受波した音声の音声データを音声分析部121に出力し、音声分析部121は、受信した音声データに対して音声分析処理を行う(ステップS12)。具体的には、音声分析部121は、音声データに対して周波数分析(声紋分析)を行い、音声の発信源の属性を推測する。 The voice detection unit 12 outputs the voice data of the received voice to the voice analysis unit 121, and the voice analysis unit 121 performs voice analysis processing on the received voice data (step S12). Specifically, the voice analysis unit 121 performs frequency analysis (voiceprint analysis) on the voice data and estimates the attributes of the voice transmission source.

音声分析部121が推測結果を制御部19に出力すると、制御部19は、推測結果から認識コマンドの生成をするか否かを判断する(ステップS13)。認識コマンドの生成可否の判断規則については、ユーザがユーザインターフェース部14から、例えば記憶部111に設定してもよい。制御部19は、記憶部111にアクセスして認識コマンドの生成の判断規則を参照する。制御部19は、認識コマンドの生成を実施すると判断した場合、コマンド認識部13に、音声データに対する音声認識を実行させる(ステップS13のYES)。制御部19は、認識コマンドの生成を実施しないと判断した場合、コマンド認識部13に、音声データに対する音声認識をさせないように制御し、コマンド認識部13を次の音声を検知するまで待ち状態とする(ステップS13のNO、S11)。制御部19は、認識コマンドの生成を実施しないと判断した場合、例えば表示部103やスピーカ部104に「認識コマンドの生成がされませんでした」などのメッセージを出力させて、ユーザに通知することでもよい。 When the voice analysis unit 121 outputs the estimation result to the control unit 19, the control unit 19 determines whether or not to generate a recognition command from the estimation result (step S13). The user may set the rules for determining whether or not to generate the recognition command from the user interface unit 14 to, for example, the storage unit 111. The control unit 19 accesses the storage unit 111 and refers to the determination rule for generating the recognition command. When the control unit 19 determines that the recognition command is to be generated, the control unit 19 causes the command recognition unit 13 to execute voice recognition for the voice data (YES in step S13). When the control unit 19 determines that the recognition command is not generated, the control unit 19 controls the command recognition unit 13 so as not to recognize the voice data, and causes the command recognition unit 13 to wait until the next voice is detected. (NO in step S13, S11). When the control unit 19 determines that the recognition command is not generated, for example, the control unit 19 outputs a message such as "The recognition command was not generated" to the display unit 103 or the speaker unit 104 to notify the user. But it may be.

コマンド認識部13は、制御部19から認識コマンドの生成を命令されると、音声認識により、認識コマンドをテキストデータとして得る。コマンド認識部13は、認識コマンドをコマンド生成部11に出力する(ステップS14)。ステップS14においてコマンド認識部13は、まずコマンド認識部13内に備える音声認識エンジンで認識コマンドの取得を試みて、音声認識に失敗して取得されなかった場合に、より音声認識の認識率の高い外部の音声認識装置400を利用して認識コマンドの取得をするようにしてもよい。 When the command recognition unit 13 is instructed to generate a recognition command by the control unit 19, the command recognition unit 13 obtains the recognition command as text data by voice recognition. The command recognition unit 13 outputs the recognition command to the command generation unit 11 (step S14). In step S14, the command recognition unit 13 first attempts to acquire a recognition command with the voice recognition engine provided in the command recognition unit 13, and when the voice recognition fails and is not acquired, the recognition rate of voice recognition is higher. The recognition command may be acquired by using an external voice recognition device 400.

コマンド生成部11は、コマンド認識部13から認識コマンドを受信すると、記憶部111の条件組合わせリストを参照する。 When the command generation unit 11 receives the recognition command from the command recognition unit 13, the command generation unit 11 refers to the condition combination list of the storage unit 111.

図7は、同実施形態において、メイン電源を制御するためにコマンド制御部に設定する実行コマンド生成条件(組合せ条件リスト)の一例を示す図である。 FIG. 7 is a diagram showing an example of an execution command generation condition (combination condition list) set in the command control unit to control the main power supply in the same embodiment.

組合せ条件リストの例は、左の列から、「NO」、「実行コマンド」、「認識コマンド」、「状態情報」、「補助情報」を示している。各行ごとに記載されている「認識コマンド」と、「状態情報」と、「補助情報」とを条件として、同一行に記載されている「実行コマンド」が決定されることを示している。「認識コマンド」は、コマンド認識部13が生成し、出力する認識コマンドである。組合せ条件リストは、例えば、ユーザがユーザインターフェース部14から記憶部111に設定することでもよい。図7に示した組合せ条件リストは一例であり、補助情報の数(列の数)はさらに追加することも可能である。 In the example of the combination condition list, "NO", "execution command", "recognition command", "state information", and "auxiliary information" are shown from the left column. It indicates that the "execution command" described in the same line is determined on the condition of the "recognition command", the "state information", and the "auxiliary information" described in each line. The "recognition command" is a recognition command generated and output by the command recognition unit 13. The combination condition list may be set by the user from the user interface unit 14 to the storage unit 111, for example. The combination condition list shown in FIG. 7 is an example, and the number of auxiliary information (number of columns) can be further added.

図6に戻り、コマンド制御部1の処理動作を説明する。コマンド生成部11は、コマンド認識部13から「認識コマンド」として例えば「電源ON」が入力されると、組合せ条件リストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の項目である「時刻」、「声の強さ」、「ユーザ識別情報」を補助情報管理部91に要求し、取得し、コマンド生成部11に出力する(ステップS15)。状態情報取得部17は、「認識コマンド」が「電源ON」であることから制御対象がメイン電源80であることを把握し、状態情報管理部92に対してメイン電源80の状態情報を取得し、コマンド生成部11に出力する(ステップS16)。 Returning to FIG. 6, the processing operation of the command control unit 1 will be described. When, for example, "power ON" is input as a "recognition command" from the command recognition unit 13, the command generation unit 11 refers to the combination condition list and selects the column items of the list, "auxiliary information" and "state information". The acquisition is instructed to the auxiliary information acquisition unit 16 and the status information acquisition unit 17, respectively. The auxiliary information acquisition unit 16 requests and acquires the auxiliary information items “time”, “voice strength”, and “user identification information” of the combination condition list from the auxiliary information management unit 91, and the command generation unit 11 Is output to (step S15). Since the "recognition command" is "power ON", the status information acquisition unit 17 grasps that the control target is the main power supply 80, and acquires the status information of the main power supply 80 from the status information management unit 92. , Output to the command generation unit 11 (step S16).

コマンド生成部11は、組合せ条件リストを参照して、取得した補助情報と、状態情報と、認識コマンドとが、組合せ条件リストの条件の組合せと一致する行を探す。条件の組合せが一致する行に「実行コマンド」の項目にコマンドがある場合は、「実行コマンド」の項目に記載されているコマンドを実行コマンドとして生成し、コマンド送信部18へ出力する(ステップS17,S18のYES,S19)。一方、例えば、図7のNO7のように、条件の組合せが一致する「実行コマンド」の項目が「送信なし」となっている場合は、実行コマンドの生成はせず、コマンド制御部1は次の音声が検知されるのを待つ(ステップS17,S18のNO)。実行コマンドが「送信なし」の場合、コマンド制御部1は、「実行コマンドが送信されなかったまたは生成されなかった」という意味を含むメッセージを制御部90に送信してもよい。メッセージを受信した制御部90は、表示部103にてメッセージを表示させたり、スピーカ部104からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。 The command generation unit 11 refers to the combination condition list and searches for a line in which the acquired auxiliary information, the state information, and the recognition command match the combination of the conditions in the combination condition list. If there is a command in the "execution command" item on the line that matches the combination of conditions, the command described in the "execution command" item is generated as an execution command and output to the command transmission unit 18 (step S17). , S18 YES, S19). On the other hand, for example, when the item of the "execution command" that matches the combination of conditions is "no transmission" as in NO7 of FIG. 7, the execution command is not generated and the command control unit 1 is next. Wait for the voice of (NO in steps S17 and S18) to be detected. When the execution command is "no transmission", the command control unit 1 may send a message including the meaning "the execution command was not transmitted or generated" to the control unit 90. The control unit 90 that has received the message may notify the user by displaying the message on the display unit 103 or outputting the voice including the message content from the speaker unit 104.

また、条件の組合せが一致する「実行コマンド」の項目が「送信なし」の場合、コマンド制御部1は、「現状態を維持するための実行コマンド」を生成、送信することでもよい。例えば、音声分析部121による音声コマンドの声紋分析の結果、ユーザ識別情報として音声の発信源が「子供」である補助情報がコマンド生成部11に入力された場合、認識コマンドを用いずに、補助情報のみで「現状態を維持するための実行コマンド」を生成し、送信することでもよい。この場合、コマンド生成部11は、「その操作はできません」などという意味を含むメッセージを制御部90に送信してもよい。その際、メッセージを受信した制御部90は、表示部103にてメッセージを表示させたり、スピーカ部104からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。 Further, when the item of the "execution command" that matches the combination of conditions is "no transmission", the command control unit 1 may generate and transmit the "execution command for maintaining the current state". For example, as a result of voice print analysis of a voice command by the voice analysis unit 121, when auxiliary information in which the voice source is "child" is input to the command generation unit 11 as user identification information, the auxiliary information is not used without using the recognition command. It is also possible to generate and send an "execution command for maintaining the current state" using only the information. In this case, the command generation unit 11 may send a message including a meaning such as "the operation cannot be performed" to the control unit 90. At that time, the control unit 90 that has received the message may display the message on the display unit 103 or output the voice including the message content from the speaker unit 104 to notify the user.

コマンド送信部18は、実行コマンドが入力されたら、インターフェース部15を介して、実行コマンドを制御部90に送信する(ステップS101)。制御部90は、受信した実行コマンドに従って、制御対象の機能を制御する。 When the execution command is input, the command transmission unit 18 transmits the execution command to the control unit 90 via the interface unit 15 (step S101). The control unit 90 controls the function to be controlled according to the received execution command.

コマンド制御部1は、実行コマンドを生成もしくは送信した場合に、「実行コマンドを送信した」という内容を含んだメッセージを制御部90に送信してもよい。また、コマンド制御部1は、認識コマンドと生成した実行コマンドが異なる場合に「実行コマンドが認識コマンドと異なる」内容を含んだメッセージを制御部90に送信することでもよい。コマンド制御部1では、表示部103にメッセージを表示させたり、スピーカ部104からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。このようにすることで、ユーザは自身が発した音声コマンドが正しく実行されているかを確認することができる。 When the command control unit 1 generates or transmits an execution command, the command control unit 1 may transmit a message including the content "the execution command has been transmitted" to the control unit 90. Further, the command control unit 1 may send a message including the content "the execution command is different from the recognition command" to the control unit 90 when the recognition command and the generated execution command are different. The command control unit 1 may notify the user by displaying a message on the display unit 103 or outputting a voice including the message content from the speaker unit 104. By doing so, the user can confirm whether the voice command issued by the user is correctly executed.

再び、図7を用いて、組合せ条件リストについて詳細を説明する。 Again, with reference to FIG. 7, the combination condition list will be described in detail.

「NO」=1の場合、補助情報が全て「−」であるが、これは補助情報を用いないことを示しており、コマンド生成部11が状態情報と認識コマンドのみで実行コマンドを生成する例である。「NO」=1の例では、「認識コマンド」が「電源ON」であり、「状態情報」が「ON」である時に、実行コマンドは「電源OFF」とする。「NO」=2から4については同様であるので説明は省略する。 When "NO" = 1, all the auxiliary information is "-", which indicates that the auxiliary information is not used, and the command generation unit 11 generates an execution command only with the state information and the recognition command. Is. In the example of "NO" = 1, when the "recognition command" is "power ON" and the "state information" is "ON", the execution command is "power OFF". Since the same applies to "NO" = 2 to 4, the description thereof will be omitted.

「NO」=5の場合、「認識コマンド」が「電源ON」であり、「状態情報」が「ON」であり、1つ目の「補助情報」である「時刻」が「昼」であり、2つ目の「補助情報」である「声の強さ」が「強」である時に、実行コマンドは「送信なし(もしくは生成しない)」とする例である。ここで「補助情報」である「時刻」の値を「昼」としているが、例えば、補助情報取得部16が時刻と時刻分類値(朝、昼、夜)との対応関係を持っており、補助情報取得部16が取得した「時刻」から対応する時刻分類値を判定し、時刻分類値(NO=5の場合、昼)をコマンド生成部11に出力するようにしてもよい。2つ目の「補助情報」である「声の強さ」についても同様である。例えば、補助情報取得部16が音声分析部121から入力される「音声の強度」と強度分類(強、弱)との対応関係を持っており、補助情報取得部16が受信した「音声の強度」から対応する強度分類値を判定し、強度分類値(NO=5の場合、強)をコマンド生成部11に出力するようにしてもよい。「NO」=6から12については同様であるので説明は省略する。「NO」=5から12のように、補助情報として「時刻」と「声の強さ」とを利用することで、「昼」の時間帯には周囲の騒音が大きくなるために、音声認識エンジンの精度が劣化して認識コマンドがユーザの音声コマンドと異なってしまうといった状況を考慮して、実行コマンドを生成できる。 When "NO" = 5, the "recognition command" is "power ON", the "state information" is "ON", and the first "auxiliary information" "time" is "day". Second, when the second "auxiliary information" "voice strength" is "strong", the execution command is "no transmission (or no generation)". Here, the value of "time" which is "auxiliary information" is set to "day". For example, the auxiliary information acquisition unit 16 has a correspondence relationship between the time and the time classification value (morning, noon, night). The corresponding time classification value may be determined from the "time" acquired by the auxiliary information acquisition unit 16, and the time classification value (in the case of NO = 5, noon) may be output to the command generation unit 11. The same applies to the second "auxiliary information", "voice strength". For example, the auxiliary information acquisition unit 16 has a correspondence relationship between the “voice intensity” input from the voice analysis unit 121 and the intensity classification (strong, weak), and the auxiliary information acquisition unit 16 receives the “voice intensity”. ], The corresponding strength classification value may be determined, and the strength classification value (strong when NO = 5) may be output to the command generation unit 11. Since the same applies to "NO" = 6 to 12, the description thereof will be omitted. By using "time" and "voice strength" as auxiliary information, such as "NO" = 5 to 12, the ambient noise becomes louder during the "daytime" time zone, so voice recognition The execution command can be generated in consideration of the situation where the accuracy of the engine deteriorates and the recognition command differs from the user's voice command.

「NO」=13の場合、「認識コマンド」が「電源ON」であり、「状態情報」が「ON」であり、1つ目の「補助情報」である「時刻」が「夜」であり、2つ目の「補助情報」である「ユーザ識別情報」が「大人」である時に、実行コマンドは「電源OFF」とする例である。「NO」=5と同様、例えば、音声分析部121が声紋分析による音声コマンドの発信源の年齢を補助情報取得部16に入力する場合、年齢と年齢分類値(大人、子供)との対応関係により、補助情報取得部16が受信した「年齢」から対応する年齢分類値を判定し、年齢分類値(NO=13の場合、大人)をコマンド生成部11に出力するようにしてもよい。「NO」=14から20については同様であるので説明は省略する。「NO」=13から20のように、補助情報として「時刻」と「ユーザ識別情報」とを利用することで、「夜」の時間帯には周囲の騒音が小さいために、音声認識エンジンの精度は劣化しないが、「夜」はユーザによって実行コマンドの生成や送信を制限したいといった場合に利用できる。 When "NO" = 13, the "recognition command" is "power ON", the "state information" is "ON", and the first "auxiliary information" "time" is "night". Second, when the second "auxiliary information" "user identification information" is "adult", the execution command is "power off". Similar to "NO" = 5, for example, when the voice analysis unit 121 inputs the age of the source of the voice command by voice print analysis to the auxiliary information acquisition unit 16, the correspondence between the age and the age classification value (adult, child). Therefore, the corresponding age classification value may be determined from the "age" received by the auxiliary information acquisition unit 16 and the age classification value (adult in the case of NO = 13) may be output to the command generation unit 11. Since the same applies to "NO" = 14 to 20, the description thereof will be omitted. By using "time" and "user identification information" as auxiliary information such as "NO" = 13 to 20, the ambient noise is small during the "night" time zone, so the voice recognition engine Although the accuracy does not deteriorate, "night" can be used when the user wants to restrict the generation and transmission of execution commands.

以上、図6のフローチャートの手順により、図7による条件組合わせリストを用いた実行コマンドの生成が可能になる。 As described above, according to the procedure of the flowchart of FIG. 6, it is possible to generate an execution command using the condition combination list according to FIG.

図7による条件組合わせリストの「NO」=1の条件を適用した場合、メイン電源の現状態(「状態情報」に相当)が「ON」である。通常このような状況においてユーザは、「電源ON」という音声コマンドを発する可能性は少なく、逆に現状態「ON」の反対である「電源OFF」の音声コマンドを発する可能性の方が高くなると考えられる。しかし、周囲の騒音などにより、「電源OFF」の音声コマンドがコマンド認識部13の音声認識エンジンによって「電源ON」と認識されると、ユーザが「電源OFF」と発声しているにも関わらず、受信装置10のメイン電源をOFFにすることができない事態が発生し、ユーザのストレスは多大なものになる。しかし本実施形態によれば、コマンド制御部1において、条件組合わせリストの「NO」=1の条件を用いて、受信装置10の状態情報に基づいて認識コマンドの解釈をすることでこのような事態を防ぐことが可能となる。同様にコマンド制御部1に条件組合わせリストの「NO」=2から4を適用した場合、認識コマンドがメイン電源の現状態(「状態情報」)を切り替えるような制御命令である場合には認識コマンドと実行コマンドの制御命令を一致させる。逆に認識コマンドが「状態情報」と同じ状態への制御命令である場合は、実行コマンドの制御命令は、認識コマンドと反対のもしくは異なる制御命令となる。このように動作させる背景は、音声認識エンジンが特にONとOFFの音声の認識を間違える可能性が高いことにある。本実施形態においては、制御対象の現状態と制御後の状態とが同じになるようにユーザが音声コマンドを発することはあまりないという点を考慮して、音声コマンドに対する音声認識による解釈を支援することを可能にする。 When the condition of "NO" = 1 in the condition combination list shown in FIG. 7 is applied, the current state (corresponding to "state information") of the main power supply is "ON". Normally, in such a situation, the user is less likely to issue a voice command of "power ON", and conversely, is more likely to issue a voice command of "power OFF" which is the opposite of the current state "ON". Conceivable. However, when the voice command of "power off" is recognized as "power on" by the voice recognition engine of the command recognition unit 13 due to ambient noise or the like, the user says "power off". , A situation occurs in which the main power supply of the receiving device 10 cannot be turned off, and the stress on the user becomes great. However, according to the present embodiment, the command control unit 1 interprets the recognition command based on the state information of the receiving device 10 by using the condition of "NO" = 1 in the condition combination list. It is possible to prevent the situation. Similarly, when "NO" = 2 to 4 of the condition combination list is applied to the command control unit 1, it is recognized when the recognition command is a control command for switching the current state ("state information") of the main power supply. Match the control instructions of the command and the execution command. On the contrary, when the recognition command is a control command to the same state as the "state information", the control command of the execution command is the opposite of or different from the recognition command. The background to such operation is that there is a high possibility that the voice recognition engine makes a mistake in recognizing ON and OFF voices. In the present embodiment, considering that the user rarely issues a voice command so that the current state of the controlled object and the state after the control are the same, the interpretation of the voice command by voice recognition is supported. Make it possible.

本実施形態における図7の条件組合わせリストには、NO1からNO20に、実行コマンドを決定するための条件組合せが示されているが、これらに優先権をつけて、コマンド生成部11に優先権を考慮して条件組合わせリストを参照させることもできる。優先権は、図7のように、NO1からNO20の行順に与えてもよい。この場合、コマンド生成部11は、補助情報を取得したとしても、NO1からNO4に優先権があるため、補助情報は使用しない。また図7のリストに別途優先順位を示す列項目を追加して、各行の条件組合せに優先権をユーザが設定できるようにしてもよい。 In the condition combination list of FIG. 7 in the present embodiment, the condition combinations for determining the execution command are shown in NO1 to NO20, and priority is given to these to give priority to the command generation unit 11. It is also possible to refer to the condition combination list in consideration of. Priority may be given in the line order from NO1 to NO20 as shown in FIG. In this case, even if the command generation unit 11 acquires the auxiliary information, the auxiliary information is not used because NO1 to NO4 have priority. Further, a column item indicating the priority may be added to the list of FIG. 7 so that the user can set the priority for the condition combination of each row.

また「補助情報」が複数ある場合に、「補助情報」内で優先権を与えてもよい。例えば、図7の組合せ条件リストにおいて、補助情報に対し、例えば「時刻」、「声の強さ」、「ユーザ識別情報」の順に高い優先権を付与する。この場合、コマンド生成部11は、例えば組合せ条件リストにおいて優先権の高い補助情報が入った条件組合せから参照する。具体的には、補助情報が「時刻」のみの条件組合せに一番高い優先権を与え、次に「時刻」と「声の強さ」のみの条件組合わせに優先権を与え、その次に「時刻」と「ユーザ識別情報」のみの条件組合わせに優先権を与えるようにユーザが設定してもよい。 Further, when there are a plurality of "auxiliary information", priority may be given within the "auxiliary information". For example, in the combination condition list of FIG. 7, the auxiliary information is given higher priority in the order of, for example, "time", "voice strength", and "user identification information". In this case, the command generation unit 11 refers to, for example, from the condition combination containing the auxiliary information having high priority in the combination condition list. Specifically, the auxiliary information gives the highest priority to the condition combination of only "time", then gives the priority to the condition combination of only "time" and "voice strength", and then gives priority. The user may be set to give priority to the condition combination of only "time" and "user identification information".

また、「時刻」、「声の強さ」、「ユーザ識別情報」に優先度を示す点数をユーザが設定することで、「時刻」、「声の強さ」、「ユーザ識別情報」に付与された点数の総和をコマンド生成部11に計算させ、点数の総和の高いものから、別途優先順位を高くするなどして各組合せ条件リストに優先権を与えることでもよい。この場合、優先順位をコマンド生成部11が計算できるので、ユーザは「時刻」、「声の強さ」、「ユーザ識別情報」に対して優先度を示す点数を設定するだけでよい。 In addition, by setting points indicating priority in "time", "voice strength", and "user identification information", the user sets the points to be given to "time", "voice strength", and "user identification information". It is also possible to have the command generation unit 11 calculate the sum of the points obtained, and give priority to each combination condition list by, for example, raising the priority separately from the one with the highest sum of points. In this case, since the command generation unit 11 can calculate the priority, the user only needs to set a score indicating the priority for the "time", "voice strength", and "user identification information".

また基本的に組合せ条件リストに示される条件組合せは、同じ条件となる組み合わせがないように設定するのが望ましい。もし同じ条件となる組み合わせがある場合は、コマンド生成部11は、リスト順に選択するなどの規則を予め決めておくことでもよい。 Basically, it is desirable to set the condition combinations shown in the combination condition list so that there are no combinations that have the same conditions. If there are combinations that satisfy the same conditions, the command generation unit 11 may decide in advance a rule such as selecting in the order of the list.

(第2の実施形態)
本実施形態においては、ユーザが発した音声コマンドと、状態情報と、補助情報として番組種類と声の強さとを利用して、受信装置10のスピーカ部104が出力する音量のON−OFFを制御する場合のコマンド制御部1の動作例について示す。なお、本実施形態においては、メイン電源はONの状態であることを想定している。
(Second embodiment)
In the present embodiment, the ON-OFF of the volume output by the speaker unit 104 of the receiving device 10 is controlled by using the voice command issued by the user, the state information, and the program type and voice strength as auxiliary information. An operation example of the command control unit 1 is shown below. In this embodiment, it is assumed that the main power supply is in the ON state.

図8は、第2の実施形態において、音量を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。なお、本実施形態におけるコマンド制御部1が音声コマンドを受信して実行コマンドを送信するための処理動作の例は、図6を用いて説明するが、第1の実施形態と同様の部分については説明を省略する。 FIG. 8 is a diagram showing an example of an execution command generation condition set in the command control unit in order to control the volume in the second embodiment. An example of the processing operation for the command control unit 1 to receive the voice command and transmit the execution command in the present embodiment will be described with reference to FIG. 6, but the same parts as those in the first embodiment will be described. The explanation is omitted.

ユーザは、受信装置10のスピーカ部104の音量出力のON−OFFを制御するために、音声コマンド「音量ON」もしくは「音量OFF」を発したとする。音声検知部が音声を検知する(ステップS11のYES)。音声分析処理の結果、制御部19が、認識コマンドを生成すると判断、コマンド認識部13に、音声データに対する音声認識を実行させる(ステップS13のYES)。コマンド認識部13は、音声認識により、認識コマンドをテキストデータとして得て、認識コマンドをコマンド生成部11に出力する(ステップS14)。 It is assumed that the user issues a voice command "volume ON" or "volume OFF" in order to control ON-OFF of the volume output of the speaker unit 104 of the receiving device 10. The voice detection unit detects the voice (YES in step S11). As a result of the voice analysis process, the control unit 19 determines that a recognition command is generated, and causes the command recognition unit 13 to execute voice recognition for the voice data (YES in step S13). The command recognition unit 13 obtains the recognition command as text data by voice recognition and outputs the recognition command to the command generation unit 11 (step S14).

コマンド生成部11は、コマンド認識部13から認識コマンドを受信すると、記憶部111の条件組合わせリストを参照する。コマンド生成部11は、コマンド認識部13から「認識コマンド」として「音量ON」が入力されると、組合せ条件リストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の項目である「番組種類」、「声の強さ」を補助情報管理部91に要求し、取得し、コマンド生成部11に出力する(ステップS15)。状態情報取得部17は、「認識コマンド」が「音量ON」であることから制御対象がメイン電源80であることを把握し、状態情報管理部92からスピーカ部104の状態情報を取得し、コマンド生成部11に出力する(ステップS16)。 When the command generation unit 11 receives the recognition command from the command recognition unit 13, the command generation unit 11 refers to the condition combination list of the storage unit 111. When "volume ON" is input as a "recognition command" from the command recognition unit 13, the command generation unit 11 refers to the combination condition list and acquires "auxiliary information" and "state information" which are column items of the list. To the auxiliary information acquisition unit 16 and the state information acquisition unit 17, respectively. The auxiliary information acquisition unit 16 requests the auxiliary information management unit 91 for "program type" and "voice strength", which are items of auxiliary information in the combination condition list, acquires them, and outputs them to the command generation unit 11 (step). S15). Since the "recognition command" is "volume ON", the state information acquisition unit 17 grasps that the control target is the main power supply 80, acquires the state information of the speaker unit 104 from the state information management unit 92, and commands. Output to the generation unit 11 (step S16).

コマンド生成部11は、組合せ条件リストを参照して、取得した補助情報と、状態情報と、認識コマンドとの組み合わせが一致した行の「実行コマンド」の項目にコマンドがある場合は、「実行コマンド」の項目に記載されているコマンドを実行コマンドとして生成し、コマンド送信部18へ出力する(ステップS17,S18のYES,S19)。一方、「実行コマンド」の項目が「送信なし」となっている場合は、実行コマンドの生成はせず、コマンド制御部1は次の音声が検知されるのを待つ(ステップS17,S18のNO)。コマンド送信部18は、実行コマンドが入力されたら、実行コマンドをインターフェース部15から制御部90に送信する(ステップS101)。 The command generation unit 11 refers to the combination condition list, and if there is a command in the "execution command" item of the line where the combination of the acquired auxiliary information, the state information, and the recognition command matches, the command generation unit 11 "execute command". The command described in the item "" is generated as an execution command and output to the command transmission unit 18 (YES, S19 in steps S17 and S18). On the other hand, when the item of "execution command" is "no transmission", the execution command is not generated and the command control unit 1 waits for the next voice to be detected (NO in steps S17 and S18). ). When the execution command is input, the command transmission unit 18 transmits the execution command from the interface unit 15 to the control unit 90 (step S101).

図8を用いて、組合せ条件リストについて詳細を説明する。 The combination condition list will be described in detail with reference to FIG.

「NO」=1の場合、「状態情報」が「ON」であることから、現在「音量」が出力状態であることを示す。「NO」=1の条件組合せは、「認識コマンド」が「音量ON」であり、1つ目の「補助情報」である「番組種類」が「緊急情報」であり、2つ目の「補助情報」である「声の強さ」が「−」(条件なし)である時に、コマンド生成部11が実行コマンドとして「送信なし(もしくは生成しない)」を生成する例である。「NO」=2から4については同様であるので説明は省略する。「NO」=1から4のように、補助情報として「番組種類」を利用して、「番組種類」が「緊急情報」である場合には、あらゆる状況において、音量をONにしたいといった要求を考慮できる。例えば、放送信号受信処理部20が放送信号を受信中に地震などが起きた場合、たまたま音量をOFFにしていた場合に、ユーザは音量をONにするためにとっさに「音量ON」の音声コマンドを出力する。しかし、地震などの緊急時には周囲の騒音が大きくなることが予想され、ユーザの発した音声コマンドが間違って認識されてしまう可能性が高い。このような場合に、補助情報取得部16が取得した補助情報の「番組種類」として「緊急情報」を取得すると、コマンド生成部11は、受信した「認識コマンド」や制御対象の「状態情報」によらず常に音量をONにする。 When "NO" = 1, since the "state information" is "ON", it indicates that the "volume" is currently in the output state. In the condition combination of "NO" = 1, the "recognition command" is "volume ON", the first "auxiliary information" "program type" is "emergency information", and the second "auxiliary information". This is an example in which the command generation unit 11 generates "no transmission (or no generation)" as an execution command when the "information" "voice strength" is "-" (no condition). Since the same applies to "NO" = 2 to 4, the description thereof will be omitted. When "program type" is used as auxiliary information such as "NO" = 1 to 4, and the "program type" is "emergency information", a request is made to turn on the volume in all situations. Can be considered. For example, if an earthquake or the like occurs while the broadcast signal reception processing unit 20 is receiving a broadcast signal, or if the volume is turned off by chance, the user immediately makes a voice command of "volume ON" to turn the volume ON. Is output. However, in an emergency such as an earthquake, ambient noise is expected to increase, and there is a high possibility that voice commands issued by the user will be erroneously recognized. In such a case, when "emergency information" is acquired as the "program type" of the auxiliary information acquired by the auxiliary information acquisition unit 16, the command generation unit 11 receives the received "recognition command" and the "state information" to be controlled. Always turn on the volume regardless.

「NO」=5から12は、補助情報として「ユーザ識別情報」を使用する例である。例えば、昼間の時間帯などに子供が受信装置10でデジタルコンテンツを視聴することを避けたいといった場合に、「NO」=5から12のような条件組合せ利用することができる。 "NO" = 5 to 12 are examples in which "user identification information" is used as auxiliary information. For example, when a child wants to avoid viewing digital contents on the receiving device 10 during a daytime or the like, a combination of conditions such as "NO" = 5 to 12 can be used.

以上、本実施形態のように、ユーザが組合せ条件リストを設定することで、さまざまなユースケースを想定して、音声コマンドに対するコマンド制御が可能となる。 As described above, by setting the combination condition list by the user as in the present embodiment, it is possible to control commands for voice commands assuming various use cases.

(第3の実施形態)
本実施形態においては、ユーザが発した音声コマンドと、状態情報と、補助情報としてユーザ識別情報と時刻とを利用して、受信装置10が、表示部103やスピーカ部104に出力するデジタルコンテンツを制御する場合のコマンド制御部1の動作例について示す。なお、本実施形態においては、メイン電源はONの状態であることを想定している。また、本実施形態においては、1つの音声コマンドに対して、2つの実行コマンドを出力する例を示す。
(Third Embodiment)
In the present embodiment, the receiving device 10 outputs digital contents to the display unit 103 and the speaker unit 104 by using the voice command issued by the user, the state information, and the user identification information and the time as auxiliary information. An operation example of the command control unit 1 in the case of control is shown. In this embodiment, it is assumed that the main power supply is in the ON state. Further, in the present embodiment, an example of outputting two execution commands for one voice command is shown.

図9は、第3の実施形態において、デジタルコンテンツ受信を制御するためにコマンド制御部に設定する実行コマンド生成条件の一例を示す図である。 FIG. 9 is a diagram showing an example of execution command generation conditions set in the command control unit in order to control digital content reception in the third embodiment.

なお、本実施形態におけるコマンド制御部1が音声コマンドを受信して実行コマンドを送信するための処理動作例は、図6のフローチャートを用いて説明するが、第1の実施形態と同様の部分については説明を省略する。 An example of processing operation for the command control unit 1 in the present embodiment to receive a voice command and transmit an execution command will be described with reference to the flowchart of FIG. 6, but the same portion as in the first embodiment will be described. Omits the description.

ユーザは、受信装置10の表示部103やスピーカ部104へのデジタルコンテンツの出力を制御するために、音声コマンド「ネット」、「チューナ」もしくは「レコーダ」のいずれかを発したとする。音声検知部が音声を検知する(ステップS11のYES)。ステップS12、S13を経て、コマンド認識部13は、音声認識により、認識コマンドをテキストデータとして得て、認識コマンドをコマンド生成部11に出力する(ステップS14)。 It is assumed that the user issues one of the voice commands "net", "tuner", or "recorder" in order to control the output of digital contents to the display unit 103 and the speaker unit 104 of the receiving device 10. The voice detection unit detects the voice (YES in step S11). Through steps S12 and S13, the command recognition unit 13 obtains the recognition command as text data by voice recognition and outputs the recognition command to the command generation unit 11 (step S14).

コマンド生成部11は、コマンド認識部13から「認識コマンド」が入力されると、記憶部111の条件組合わせリストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の項目である「ユーザ識別情報」、「時刻」を補助情報管理部91に要求し、取得し、コマンド生成部11に出力する(ステップS15)。状態情報取得部17は、「認識コマンド」から制御対象がコンテンツ出力装置であることを把握し、状態情報管理部92からスピーカ部104の状態情報を取得し、コマンド生成部11に出力する(ステップS16)。 When the "recognition command" is input from the command recognition unit 13, the command generation unit 11 refers to the condition combination list of the storage unit 111 and acquires "auxiliary information" and "state information" which are column items of the list. To the auxiliary information acquisition unit 16 and the state information acquisition unit 17, respectively. The auxiliary information acquisition unit 16 requests the auxiliary information management unit 91 for "user identification information" and "time", which are the items of the auxiliary information in the combination condition list, acquires them, and outputs them to the command generation unit 11 (step S15). .. The state information acquisition unit 17 grasps that the control target is the content output device from the “recognition command”, acquires the state information of the speaker unit 104 from the state information management unit 92, and outputs it to the command generation unit 11 (step). S16).

コマンド生成部11は、ステップ17からS19を経て実行コマンドを生成し、コマンド送信部18へ出力する。コマンド送信部18から実行コマンドを制御部90に送信する(ステップS101)。本実施形態においては、実行コマンドは2つ生成される。コンテンツ出力装置に対する第1の実行コマンドと、番組種類に対する第2の実行コマンドである。 The command generation unit 11 generates an execution command from step 17 through S19 and outputs the execution command to the command transmission unit 18. The command transmission unit 18 transmits an execution command to the control unit 90 (step S101). In this embodiment, two execution commands are generated. It is a first execution command for the content output device and a second execution command for the program type.

図9を用いて、組合せ条件リストについて詳細を説明する。 The combination condition list will be described in detail with reference to FIG.

「NO」=1の場合、コンテンツ出力装置の「状態情報」が「チューナ」であることから、現在、「チューナ」が表示部103、スピーカ部104へ出力していることを示す。「NO」=1の条件組合せは、コマンド生成部11が受信した認識コマンドが「ネット」であり、1つ目の補助情報であるユーザ識別情報が「大人」である時に、コマンド生成部11はコンテンツ出力装置の1つである「ネット」から表示部103、スピーカ部104へ出力させるための実行コマンドを生成する例である。「NO」=2、3については同様であるので説明は省略する。 When "NO" = 1, since the "state information" of the content output device is the "tuner", it indicates that the "tuner" is currently outputting to the display unit 103 and the speaker unit 104. In the condition combination of "NO" = 1, when the recognition command received by the command generation unit 11 is "net" and the user identification information which is the first auxiliary information is "adult", the command generation unit 11 This is an example of generating an execution command for outputting to the display unit 103 and the speaker unit 104 from the "net" which is one of the content output devices. Since the same applies to "NO" = 2 and 3, the description thereof will be omitted.

「NO」=4の場合、コンテンツ出力装置の「状態情報」が「チューナ」であることから、現在、「チューナ」が表示部103、スピーカ部104へ出力していることを示す。「NO」=4の条件組合せは、コマンド生成部11が受信した認識コマンドが「ネット」であり、1つ目の補助情報であるユーザ識別情報が「子供」であり、2つ目の補助情報である時刻が「昼」である時に、コマンド生成部11はコンテンツ出力装置の1つである「ネット」から表示部103、スピーカ部104へ出力させないために実行コマンドを生成もしくは送信しない例である。「NO」=4のケースは、例えば、昼間の時間帯などに子供が受信装置10で「ネット」からのデジタルコンテンツを視聴することを避けたいといった場合に利用することができる。 When "NO" = 4, since the "state information" of the content output device is the "tuner", it indicates that the "tuner" is currently outputting to the display unit 103 and the speaker unit 104. In the condition combination of "NO" = 4, the recognition command received by the command generation unit 11 is "net", the user identification information which is the first auxiliary information is "child", and the second auxiliary information. This is an example in which the command generation unit 11 does not generate or transmit an execution command in order to prevent output from the "net", which is one of the content output devices, to the display unit 103 and the speaker unit 104 when the time is "daytime". .. The case of "NO" = 4 can be used, for example, when a child wants to avoid viewing digital contents from the "net" on the receiving device 10 during a daytime time zone or the like.

また、「NO」=9の場合、コンテンツ出力装置の「状態情報」が「レコーダ」であることから、現在、「レコーダ」が表示部103、スピーカ部104へ出力していることを示す。「NO」=9の条件組合せは、コマンド生成部11が受信した認識コマンドが「ネット」であり、1つ目の補助情報であるユーザ識別情報が「子供」であり、2つ目の補助情報である時刻が「夜」である時に、コマンド生成部11は実行コマンドとして、「ネット」と番組種類に対する実行コマンドである「教育」との2つを生成する。生成された2つの実行コマンドは、コマンド送信部18から制御部90に送信され、「ネット」が配信サービスする「教育」に関する番組を表示部103、スピーカ部104へ出力させる。「NO」=9のケースは、例えば、夜間の時間帯に子供が受信装置10で「ネット」を見ようとした場合に、番組種類が「教育」であるデジタルコンテンツを視聴するようにしたいといった場合に利用することができる。 Further, when "NO" = 9, since the "state information" of the content output device is the "recorder", it indicates that the "recorder" is currently outputting to the display unit 103 and the speaker unit 104. In the condition combination of "NO" = 9, the recognition command received by the command generation unit 11 is "net", the user identification information which is the first auxiliary information is "child", and the second auxiliary information. When the time is "night", the command generation unit 11 generates two execution commands, "net" and "education", which is an execution command for the program type. The two generated execution commands are transmitted from the command transmission unit 18 to the control unit 90, and the program related to "education" distributed by the "net" is output to the display unit 103 and the speaker unit 104. The case of "NO" = 9 is, for example, a case where a child wants to watch digital contents whose program type is "education" when he / she tries to watch the "net" with the receiving device 10 at night time. Can be used for.

また、例えば、ユーザがBSを視聴中に、すなわち、制御対象部位「チューナ」の状態情報が「BS」である時に、ユーザが音声コマンドとして「BS」を発声するなどし、コマンド認識部13が、認識コマンドとして「BS」を生成し、コマンド生成部11に出力したとする。コマンド生成部11は、認識コマンドが入力されると、制御対象部位「チューナ」の「ホーム」に設定された状態値(「地デジ」とする)に切り替える実行コマンド「地デジ」を生成、送信する。制御部90は、実行コマンド「地デジ」を受信し、チューナを「地デジ」に切り替える。この時、表示部103、スピーカ104に出力するチャネル(番組)を、制御対象部位である「チャネル(番組)」に設定された「ホーム」の状態値を選択するようにしてもよい。すなわち、この例の場合、コマンド生成部11は、ユーザが発した1つの制御対象部位に対する音声コマンド(もしくはそれを認識した認識コマンド)に対して、「チューナ」と「チャネル(番組)」という複数の制御対象部位に対して実行コマンドを生成する。「チャネル(番組)」に対し設定される「ホーム」は、例えば前回テレビ装置の電源をOFFにする直前に視聴していたチャネルとしてもよいし、ユーザが予め設定したチャネルとしてもよい。また、異なる対象制御部位に対する実行コマンドを分けずに、1つの実行コマンドとすることでもよい。 Further, for example, when the user is watching the BS, that is, when the state information of the controlled target portion “tuner” is “BS”, the user utters “BS” as a voice command, and the command recognition unit 13 , It is assumed that "BS" is generated as a recognition command and output to the command generation unit 11. When the recognition command is input, the command generation unit 11 generates and transmits an execution command "terrestrial digital" that switches to the state value (referred to as "terrestrial digital") set in the "home" of the controlled target part "tuner". To do. The control unit 90 receives the execution command "terrestrial digital" and switches the tuner to "terrestrial digital". At this time, for the channel (program) to be output to the display unit 103 and the speaker 104, the state value of "home" set in the "channel (program)" which is the control target part may be selected. That is, in the case of this example, the command generation unit 11 has a plurality of "tuners" and "channels (programs)" for voice commands (or recognition commands that recognize them) for one controlled target portion issued by the user. Generates an execution command for the controlled part of. The "home" set for the "channel (program)" may be, for example, a channel that was viewed immediately before the power of the television device was turned off last time, or a channel preset by the user. Further, the execution commands for different target control parts may not be divided into one execution command.

以上、本実施形態のように、ユーザが組合せ条件リストを設定することで、1つの音声コマンドから複数の実行コマンドを生成し、送信し、実行させることができる。 As described above, as in the present embodiment, the user can set a combination condition list to generate, transmit, and execute a plurality of execution commands from one voice command.

(第4の実施形態)
本実施形態においては、コマンド制御部1を一つの独立した装置として利用する場合のシステムの例を示す。
(Fourth Embodiment)
In this embodiment, an example of a system in which the command control unit 1 is used as one independent device is shown.

図10は、第3の実施形態に係るシステム全体の構成例を示した図である。
ネットワーク500に、コマンド制御装置2と、IoTデバイス600A、600Bとが接続されている。IoTデバイス600Aと600Bとが同様の機能を備え、特に両者を区別しない場合は、IoTデバイス600Aと600BとをIoTデバイス600と称する。IoTデバイス600は図10には2つだけ示されているが、多数あってもよい。
FIG. 10 is a diagram showing a configuration example of the entire system according to the third embodiment.
The command control device 2 and the IoT devices 600A and 600B are connected to the network 500. When the IoT devices 600A and 600B have the same functions and the two are not particularly distinguished, the IoT devices 600A and 600B are referred to as IoT devices 600. Although only two IoT devices 600 are shown in FIG. 10, there may be many.

コマンド制御装置2は、例えばCPUやメモリなどを有したコンピュータに構築される。コマンド制御装置2は、パーソナルコンピュータであっても良いし、サーバ、データベースなどを含むクラウドサービスであっても良い。コマンド制御装置2は、コマンド認識部1と、通信部102Aとを含む。コマンド認識部1、通信部102Aは、それぞれ図3におけるコマンド認識部1と、通信部102の機能に相当する。 The command control device 2 is built on a computer having, for example, a CPU and a memory. The command control device 2 may be a personal computer or a cloud service including a server, a database, and the like. The command control device 2 includes a command recognition unit 1 and a communication unit 102A. The command recognition unit 1 and the communication unit 102A correspond to the functions of the command recognition unit 1 and the communication unit 102 in FIG. 3, respectively.

IoTデバイス600は、あらゆる種類のIoT機器であり、ネットワーク100に接続され、ネットワーク100上の装置とデータ通信を実施する。IoTデバイス600は、例えば、温度検知センサ、水漏れ検知センサ、ドア開閉センサなどのセンサ類であってもよいし、それらのセンサを用いた検知装置でもよい。また、IoTデバイス600は、エアコン、テレビ装置、照明、カメラなどの家電でもよい。またネットワーク100に接続であれば、スマートフォンのようなモバイル端末でもよい。本実施形態におけるIoTデバイス600は、コマンド制御装置2に対して補助情報と、状態情報とを提供し、コマンド制御装置2の出力した実行コマンドを受信し、受信した実行コマンドによりIoTデバイス600の機能を制御する。 The IoT device 600 is an IoT device of all kinds, is connected to the network 100, and performs data communication with the device on the network 100. The IoT device 600 may be, for example, sensors such as a temperature detection sensor, a water leak detection sensor, a door open / close sensor, or a detection device using these sensors. Further, the IoT device 600 may be a home appliance such as an air conditioner, a television device, a lighting, and a camera. Further, as long as it is connected to the network 100, a mobile terminal such as a smartphone may be used. The IoT device 600 in the present embodiment provides auxiliary information and status information to the command control device 2, receives an execution command output by the command control device 2, and functions of the IoT device 600 according to the received execution command. To control.

具体的には、IoTデバイス600は、補助情報出力部21A、状態切替部22A、制御部90A、補助情報管理部91A、状態情報管理部92A、通信部102A、インターフェース部105Aを含む。それぞれの機能は、図2における補助情報出力部21、状態切替部82、制御部90、補助情報管理部91、状態情報管理部92、通信部102、インターフェース部105の機能に相当する。 Specifically, the IoT device 600 includes an auxiliary information output unit 21A, a state switching unit 22A, a control unit 90A, an auxiliary information management unit 91A, a state information management unit 92A, a communication unit 102A, and an interface unit 105A. Each function corresponds to the functions of the auxiliary information output unit 21, the state switching unit 82, the control unit 90, the auxiliary information management unit 91, the state information management unit 92, the communication unit 102, and the interface unit 105 in FIG.

すなわち、図2の各機能を、コマンド制御装置2とIoTデバイス600Aに割り振ったとも言える。第1の実施形態にて示した受信装置10と、本実施形態に示すIoTデバイス600との大きな違いは、受信装置10には内部にコマンド制御部1を備えているが、IoTデバイス600にはコマンド制御部1を備えていないことにある。本実施形態においては、コマンド制御部1はコマンド制御装置2に備えられており、IoTデバイス600は、ネットワーク500を介してコマンド制御装置2から実行コマンドを受信する。 That is, it can be said that each function of FIG. 2 is assigned to the command control device 2 and the IoT device 600A. The major difference between the receiving device 10 shown in the first embodiment and the IoT device 600 shown in the present embodiment is that the receiving device 10 has a command control unit 1 inside, but the IoT device 600 has a command control unit 1. The command control unit 1 is not provided. In the present embodiment, the command control unit 1 is provided in the command control device 2, and the IoT device 600 receives an execution command from the command control device 2 via the network 500.

コマンド制御装置2が制御可能なIoTデバイス600の制御対象部位は、例えば、第1から第3の実施形態で示した電源(ON−OFF)でもよいし、その他、機能部位の起動と停止を制御することでもよい。 The controlled target portion of the IoT device 600 that can be controlled by the command control device 2 may be, for example, the power supply (ON-OFF) shown in the first to third embodiments, and other controls for starting and stopping the functional portion. You may do it.

コマンド制御装置2が、IoTデバイス600に対して実行コマンドを送信する手順は図6のフローチャートを利用することができる。第1の実施形態、第2の実施形態と同様の手順についての詳細説明は省略する。 The flowchart of FIG. 6 can be used for the procedure in which the command control device 2 transmits an execution command to the IoT device 600. Detailed description of the procedure similar to that of the first embodiment and the second embodiment will be omitted.

ユーザはコマンド制御装置2の近くにおり、IoTデバイス600Aに対してネットワーク500を介して遠隔で制御をする。ユーザはコマンド制御装置2のコマンド制御部1に、IoTデバイス600Aに対する実行コマンド生成条件(組合せ条件リスト)を設定する。 The user is near the command control device 2 and remotely controls the IoT device 600A via the network 500. The user sets the execution command generation condition (combination condition list) for the IoT device 600A in the command control unit 1 of the command control device 2.

ユーザは、IoTデバイス600Aの機能を制御するために、コマンド制御装置2の音声検知部12に対して音声コマンドを発したとする。音声検知部12が音声を検知し、音声分析部121による音声分析処理を経て、コマンド認識部13が、認識コマンドの生成し、コマンド生成部11に認識コマンドを出力する(ステップS11のYES、S12、S13のYES、S14)。 It is assumed that the user issues a voice command to the voice detection unit 12 of the command control device 2 in order to control the function of the IoT device 600A. The voice detection unit 12 detects the voice, and after the voice analysis process by the voice analysis unit 121, the command recognition unit 13 generates a recognition command and outputs the recognition command to the command generation unit 11 (YES in step S11, S12). , S13 YES, S14).

コマンド生成部11は、コマンド認識部13から認識コマンドが入力されると、組合せ条件リストを参照し、リストの列項目である「補助情報」、「状態情報」の取得をそれぞれ補助情報取得部16と状態情報取得部17に命令する。補助情報取得部16は、組合せ条件リストの補助情報の諸項目を補助情報管理部91Aに要求し、取得し、コマンド生成部11に出力する(ステップS15)。本実施形態におけるステップS15について、詳細に説明する。 When a recognition command is input from the command recognition unit 13, the command generation unit 11 refers to the combination condition list and acquires the column items "auxiliary information" and "state information" of the list, respectively. To the status information acquisition unit 17. The auxiliary information acquisition unit 16 requests various items of auxiliary information in the combination condition list from the auxiliary information management unit 91A, acquires them, and outputs them to the command generation unit 11 (step S15). Step S15 in this embodiment will be described in detail.

補助情報取得部16は、通信部102Aを介して、IoTデバイス600Aに対して補助情報の要求をする。IoTデバイス600Aにおいては、制御部90Aが通信部102A2を介して補助情報の要求を受信する。制御部90Aは、補助情報管理部91Aから補助情報を取得し、取得した補助情報をコマンド制御装置2に通信部102A2を介して送信する。 The auxiliary information acquisition unit 16 requests auxiliary information from the IoT device 600A via the communication unit 102A. In the IoT device 600A, the control unit 90A receives the request for auxiliary information via the communication unit 102A2. The control unit 90A acquires auxiliary information from the auxiliary information management unit 91A, and transmits the acquired auxiliary information to the command control device 2 via the communication unit 102A2.

状態情報取得部17は、認識コマンドから制御対象を把握し、通信部102Aを介して、IoTデバイス600Aに対して制御対象の状態情報の要求をする。IoTデバイス600Aにおいて、通信部102A2を介して制御部90Aが状態情報の要求を受信する。制御部90Aは、状態情報管理部92Aから状態情報を取得し、取得した状態情報をコマンド制御装置2に通信部102A2を介して送信する。コマンド制御装置2において、通信部102A2を介してコマンド生成部11が状態情報を受信する(ステップS16)。 The state information acquisition unit 17 grasps the control target from the recognition command, and requests the IoT device 600A for the state information of the control target via the communication unit 102A. In the IoT device 600A, the control unit 90A receives a request for status information via the communication unit 102A2. The control unit 90A acquires the state information from the state information management unit 92A, and transmits the acquired state information to the command control device 2 via the communication unit 102A2. In the command control device 2, the command generation unit 11 receives the state information via the communication unit 102A2 (step S16).

コマンド生成部11は、組合せ条件リストを参照して、取得した補助情報と、状態情報と、認識コマンドとの組み合わせが一致する条件の「実行コマンド」の項目にコマンドがある場合は、「実行コマンド」の項目に記載されているコマンドを実行コマンドとして生成し、コマンド送信部18へ出力する(ステップS17,S18のYES,S19)。
一方、「実行コマンド」の項目が「送信なし」となっている場合は、実行コマンドの生成はせず、コマンド制御部1は次の音声が検知されるのを待つ(ステップS17,S18のNO)。この場合、コマンド制御部1は、「コマンド送信なし」など「実行コマンドが送信されなかったまたは生成されなかった」という意味を含むメッセージを、コマンド制御装置2の図示せぬ表示部にてメッセージを表示させたり、コマンド制御装置2の図示せぬスピーカ部からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。
The command generation unit 11 refers to the combination condition list, and if there is a command in the "execution command" item of the condition in which the combination of the acquired auxiliary information, the state information, and the recognition command matches, the command generation unit 11 "execute command". The command described in the item "" is generated as an execution command and output to the command transmission unit 18 (YES, S19 in steps S17 and S18).
On the other hand, when the item of "execution command" is "no transmission", the execution command is not generated and the command control unit 1 waits for the next voice to be detected (NO in steps S17 and S18). ). In this case, the command control unit 1 sends a message including the meaning of "the execution command was not sent or generated" such as "no command transmission" on the display unit (not shown) of the command control device 2. The user may be notified by displaying the command or outputting a voice including a message content from a speaker unit (not shown) of the command control device 2.

コマンド送信部18は、入力された実行コマンドを、通信部102Aを介して、IoTデバイス600Aに送信する(ステップS101)。IoTデバイス600Aでは、受信した実行コマンドに従って、制御の機能を制御する。コマンド制御部1は、実行コマンドを生成もしくは送信した場合に、「実行コマンドを送信した」という意味を含んだメッセージをコマンド制御装置2の図示せぬ表示部にてメッセージを表示させたり、コマンド制御装置2の図示せぬスピーカ部からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。また、コマンド制御装置2は、認識コマンドと生成した実行コマンドが異なる場合に、「実行コマンドが認識コマンドと異なる」という内容を含んだメッセージをコマンド制御装置2の図示せぬ表示部にてメッセージを表示させたり、コマンド制御装置2の図示せぬスピーカ部からメッセージ内容を含んだ音声を出力させたりして、ユーザに通知することでもよい。このようにすることで、ユーザは自身が発した音声コマンドによる意図が正しく実行されているかどうかを確認することができる。 The command transmission unit 18 transmits the input execution command to the IoT device 600A via the communication unit 102A (step S101). The IoT device 600A controls the control function according to the received execution command. When the command control unit 1 generates or transmits an execution command, the command control unit 1 displays a message including the meaning of "the execution command has been transmitted" on a display unit (not shown) of the command control device 2, or commands control. The user may be notified by outputting a voice including a message content from a speaker unit (not shown) of the device 2. Further, when the recognition command and the generated execution command are different, the command control device 2 sends a message including the content "the execution command is different from the recognition command" on the display unit (not shown) of the command control device 2. The user may be notified by displaying the command or outputting a voice including a message content from a speaker unit (not shown) of the command control device 2. By doing so, the user can confirm whether or not the intention of the voice command issued by the user is correctly executed.

以上の手順により、ユーザが、ネットワーク500に接続されたコマンド制御装置2に対して音声コマンドを発すると、ネットワーク500に接続されたIoTデバイス600を実行コマンドにより制御することができる。 According to the above procedure, when the user issues a voice command to the command control device 2 connected to the network 500, the IoT device 600 connected to the network 500 can be controlled by the execution command.

以上述べた少なくとも1つの実施形態によれば、音声コマンドに対する音声認識を支援するコマンド生成装置、生成方法および生成プログラムを提供することができる。 According to at least one embodiment described above, it is possible to provide a command generation device, a generation method, and a generation program that support voice recognition for voice commands.

以上の実施形態においては、制御対象装置である受信装置10やIoTデバイス600の上に制御部90(補助情報管理部91、状態情報管理部92を含む)の機能を設置する例を示したが、制御部90の機能の全てまたは一部を制御対象の外部の制御装置とするなどしても構わない。この場合、制御装置もネットワーク500に接続される。コマンド制御装置についても同様に、装置内の機能と、その機能が実行されるハードウェアについてはいろいろな構成、組合せが考えられ、以上に示した実施形態の例に限定されるものではない。
(変形例)
本変形例においては、例えば、補助情報として、図5の「ユーザ識別情報」、「時間帯」を用いることで、子供の視聴制限や操作制限などのパレンタルコントロール(Parental Control)を可能とする例を示す。テレビ装置を操作するリモコンなどは大人が管理しているものとする。
In the above embodiment, an example in which the functions of the control unit 90 (including the auxiliary information management unit 91 and the state information management unit 92) are installed on the receiving device 10 and the IoT device 600, which are the controlled target devices, has been shown. , All or part of the functions of the control unit 90 may be an external control device to be controlled. In this case, the control device is also connected to the network 500. Similarly, with respect to the command control device, various configurations and combinations can be considered for the functions in the device and the hardware on which the functions are executed, and the present invention is not limited to the examples of the embodiments shown above.
(Modification example)
In this modification, for example, by using the "user identification information" and "time zone" of FIG. 5 as auxiliary information, parental control such as viewing restriction and operation restriction of children can be enabled. An example is shown. It is assumed that adults manage remote controls for operating TV devices.

具体的には、子供が音声コマンドを発した場合に、音声分析部121によって声紋分析がなされ、補助情報取得部16でユーザ識別情報として「子供」が取得され、コマンド生成部11に入力されたとする。同時にその音声コマンドがコマンド認識部13に入力され、認識コマンドが生成され、コマンド生成部11に入力されたとする。コマンド生成部11は、例えば、認識コマンド「電源OFF」、補助情報「子供」に基づいて、実行コマンドとして「電源OFF」を生成し、制御部90に出力する。一方、コマンド生成部11は、補助情報取得部16からユーザ識別情報として「子供」を取得し、時間帯として「深夜」を取得したとする。この場合、コマンド生成部11は、「子供」と「深夜」という補助情報のみから、例えば「現状態を維持するための実行コマンド」を生成することでもよい。 Specifically, when a child issues a voice command, voiceprint analysis is performed by the voice analysis unit 121, "child" is acquired as user identification information by the auxiliary information acquisition unit 16, and is input to the command generation unit 11. To do. At the same time, it is assumed that the voice command is input to the command recognition unit 13, the recognition command is generated, and the voice command is input to the command generation unit 11. The command generation unit 11 generates, for example, "power OFF" as an execution command based on the recognition command "power OFF" and the auxiliary information "child", and outputs it to the control unit 90. On the other hand, it is assumed that the command generation unit 11 acquires "child" as the user identification information from the auxiliary information acquisition unit 16 and acquires "midnight" as the time zone. In this case, the command generation unit 11 may generate, for example, an "execution command for maintaining the current state" from only the auxiliary information of "child" and "midnight".

図5には図示されていないが、補助情報として「番組視聴対象」なども合わせて用いることでもパレンタルコントロールが可能である。例えば、コマンド認識部13が、子供が発した音声コマンドにより制御対象部位が「チャネル(番組)」であることを認識したとする。コマンド認識部13は、認識した制御対象部位を含めた認識情報を補助情報取得部16に出力すると、補助情報取得部16は、認識情報に含まれる制御対象部位「チャネル(番組)」に対する補助情報である「番組視聴対象」を放送信号受信処理部20などから取得し、コマンド生成部11に出力する。コマンド生成部11は、音声分析部121から得たユーザ識別情報である「子供」と、「番組視聴対象」との2つの補助情報に基づいて、実行コマンドを生成する。例えば番組視聴対象に「子供」が含まれる場合は、認識コマンドをそのまま実行コマンドとして生成する。また、番組視聴対象に「子供」が含まれない場合は、例えば、「現状態を維持するための実行コマンド」を生成する。 Although not shown in FIG. 5, parrent control is also possible by using "program viewing target" as auxiliary information. For example, it is assumed that the command recognition unit 13 recognizes that the controlled target portion is a "channel (program)" by a voice command issued by a child. When the command recognition unit 13 outputs the recognition information including the recognized control target part to the auxiliary information acquisition unit 16, the auxiliary information acquisition unit 16 receives the auxiliary information for the control target part "channel (program)" included in the recognition information. The "program viewing target" is acquired from the broadcast signal reception processing unit 20 and the like, and is output to the command generation unit 11. The command generation unit 11 generates an execution command based on two auxiliary information of the user identification information "child" and "program viewing target" obtained from the voice analysis unit 121. For example, when the program viewing target includes "children", the recognition command is generated as it is as an execution command. If the program viewing target does not include the "child", for example, an "execution command for maintaining the current state" is generated.

以上、本変形例によれば、音声コマンドに対するパレンタルコントロールが可能となる。また本変形例によれば、認識コマンド、状態情報、補助情報のうち、認識コマンドを用いずに音声コマンドに基づいて取得した補助情報のみから実行コマンドを生成することが可能である。 As described above, according to this modification, parrent control for voice commands is possible. Further, according to this modification, it is possible to generate an execution command from only the auxiliary information acquired based on the voice command without using the recognition command among the recognition command, the state information, and the auxiliary information.

以上述べた少なくとも1つの実施形態、変形例によれば、音声コマンドに対する音声認識を支援するコマンド制御装置、制御方法および制御プログラムを提供することができる。 According to at least one embodiment and modification described above, it is possible to provide a command control device, a control method, and a control program that support voice recognition for voice commands.

上記した本装置は以下のように記載することもできる。
(A−1)
入力された音声(音声コマンド)から動作制御情報(認識コマンド)を取得し、制御対象装置(受信装置10)の動作状態を、第1モード、または、第1モードとは異なる第2モードのいずれかの動作状態とする動作制御手段(コマンド生成部11)とを具備する電子装置(コマンド制御部1もしくはコマンド制御装置2)であって、
前記制御対象装置の動作状態が第1モードであり、かつ、
前記動作制御情報が前記第1モードでの動作状態に関するものであるとき、前記動作状態を、前記第2モードとする電子装置。
(A−2)
前記制御対象装置の制御対象部位の状態に関する動作状態情報(状態情報)を取得する(A−1)に記載の電子装置。
(A−3)
前記動作制御情報および前記動作状態情報とは異なる制御条件情報(補助情報)を取得する(A−1)または(A−2)に記載の電子装置。
(A−4)
前記制御条件情報が、時間帯、ユーザ識別情報、ユーザ属性、受信コンテンツ情報、放送事業者、配信事業者、および、録画コンテンツ管理者の群の少なくともいずれか1つに基づき設定される(A−3)に記載の電子装置。
(A−5)
入力された音声(音声コマンド)から動作制御情報(認識コマンド)を取得し、制御対象装置(受信装置10)の動作状態を、第1モード、または、第1モードとは異なる第2モードのいずれかの動作状態とすることを
をコンピュータに実行させるための、プログラムであって、
前記制御対象装置の動作状態が第1モードであり、かつ、
前記動作制御情報が、前記第1モードでの動作状態に関するものであるとき、前記動作状態を、前記第2モードとする
上記のプログラム。
The above-mentioned device can also be described as follows.
(A-1)
The operation control information (recognition command) is acquired from the input voice (voice command), and the operation state of the controlled device (receiver device 10) is set to either the first mode or the second mode different from the first mode. An electronic device (command control unit 1 or command control device 2) including an operation control means (command generation unit 11) for setting the operation state.
The operating state of the controlled device is the first mode, and
An electronic device that sets the operating state as the second mode when the operation control information relates to the operating state in the first mode.
(A-2)
The electronic device according to (A-1), which acquires operating state information (state information) relating to the state of a controlled target portion of the controlled target device.
(A-3)
The electronic device according to (A-1) or (A-2), which acquires control condition information (auxiliary information) different from the operation control information and the operation state information.
(A-4)
The control condition information is set based on at least one of a group of time zone, user identification information, user attribute, received content information, broadcaster, distributor, and recorded content manager (A-). The electronic device according to 3).
(A-5)
The operation control information (recognition command) is acquired from the input voice (voice command), and the operation state of the controlled device (receiver device 10) is set to either the first mode or the second mode different from the first mode. It is a program that causes a computer to execute the operation state.
The operating state of the controlled device is the first mode, and
The above-mentioned program that sets the operation state as the second mode when the operation control information relates to the operation state in the first mode.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また、複数の実施形態を組み合わせてもよく、この組み合わせで構成される実施例も発明の範疇である。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof. Furthermore, in each of the constituent elements of the claim, even if the constituent elements are divided and expressed, a plurality of the constituent elements are expressed together, or a combination thereof is expressed, it is within the scope of the present invention. Further, a plurality of embodiments may be combined, and examples composed of these combinations are also within the scope of the invention.

また、図面は、説明をより明確にするため、実際の態様に比べて、各部の幅、厚さ、形状等について模式的に表される場合がある。ブロック図においては、結線されていないブロック間もしくは、結線されていても矢印が示されていない方向に対してもデータや信号のやり取りを行う場合もある。ブロック図に示される各機能や、フローチャート、シーケンスチャートに示す処理は、ハードウェア(ICチップなど)もしくはソフトウェア(プログラムなど)もしくはハードウェアとソフトウェアの組み合わせによって実現してもよい。また請求項を制御ロジックとして表現した場合、コンピュータを実行させるインストラクションを含むプログラムとして表現した場合、及び前記インストラクションを記載したコンピュータ読み取り可能な記録媒体として表現した場合でも本発明の装置を適用したものである。また、使用している名称や用語についても限定されるものではなく、他の表現であっても実質的に同一内容、同趣旨であれば、本発明に含まれるものである。 Further, in order to clarify the explanation, the drawings may be schematically represented by the width, thickness, shape, etc. of each part as compared with the actual embodiment. In the block diagram, data and signals may be exchanged between blocks that are not connected, or even if they are connected but in a direction in which an arrow is not shown. Each function shown in the block diagram and the processing shown in the flowchart and the sequence chart may be realized by hardware (IC chip or the like) or software (program or the like) or a combination of hardware and software. Further, the apparatus of the present invention is applied even when the claim is expressed as a control logic, when it is expressed as a program including an instruction for executing a computer, and when it is expressed as a computer-readable recording medium in which the instruction is described. is there. Further, the names and terms used are not limited, and other expressions are included in the present invention as long as they have substantially the same contents and the same purpose.

1…コマンド制御部、2…コマンド制御装置、10…受信装置、11…コマンド生成部、12…音声検知部、13…コマンド認識部、14…ユーザインターフェース部、15…インターフェース部、16…補助情報取得部、17…状態情報取得部、18…コマンド送信部、19…制御部、20…放送信号受信処理部、21…補助情報出力部、30…コンテンツ処理部、31…補助情報出力部、40…録画再生部、41…補助情報出力部、50…機器データ生成部、51…補助情報出力部、60…出力制御部、62…状態切替部、70…センサ部、71…補助情報出力部、80…メイン電源部、82…状態切替部、90…制御部、91…補助情報管理部、92…状態情報管理部、93…時刻管理部、100…リモコン、101…アンテナ、102…通信部、103…表示部、104…スピーカ部、105…インターフェース部、111…記憶部、121…音声分析部、200…コンテンツサーバ装置、300…視聴解析装置、400…音声認識装置、500…ネットワーク。 1 ... Command control unit, 2 ... Command control device, 10 ... Receiver device, 11 ... Command generation unit, 12 ... Voice detection unit, 13 ... Command recognition unit, 14 ... User interface unit, 15 ... Interface unit, 16 ... Auxiliary information Acquisition unit, 17 ... Status information acquisition unit, 18 ... Command transmission unit, 19 ... Control unit, 20 ... Broadcast signal reception processing unit, 21 ... Auxiliary information output unit, 30 ... Content processing unit, 31 ... Auxiliary information output unit, 40 ... Recording / playback unit, 41 ... Auxiliary information output unit, 50 ... Equipment data generation unit, 51 ... Auxiliary information output unit, 60 ... Output control unit, 62 ... State switching unit, 70 ... Sensor unit, 71 ... Auxiliary information output unit, 80 ... Main power supply unit, 82 ... State switching unit, 90 ... Control unit, 91 ... Auxiliary information management unit, 92 ... Status information management unit, 93 ... Time management unit, 100 ... Remote control, 101 ... Antenna, 102 ... Communication unit, 103 ... Display unit, 104 ... Speaker unit, 105 ... Interface unit, 111 ... Storage unit, 121 ... Voice analysis unit, 200 ... Content server device, 300 ... Viewing analysis device, 400 ... Voice recognition device, 500 ... Network.

Claims (10)

入力された音声に基づいて制御対象に対する制御命令を含む実行コマンドを生成するコマンド制御装置において、
前記音声を音声認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成することを特徴とするコマンド制御装置。
In a command control device that generates an execution command including a control command for a controlled object based on the input voice.
It is characterized in that an execution command including one of a first control command included in the recognition command obtained by voice recognition of the voice and a second control command different from the first control command is generated. Command controller.
前記認識コマンドと、追加情報に基づいて前記実行コマンドを生成する請求項1に記載のコマンド制御装置。 The command control device according to claim 1, wherein the recognition command and the execution command are generated based on the additional information. 前記認識コマンドと、前記追加情報に基づいて前記実行コマンドの生成有無を決定する請求項2に記載のコマンド制御装置。 The command control device according to claim 2, wherein the recognition command and the command control device according to claim 2 determine whether or not to generate the execution command based on the additional information. 前記認識コマンドと、前記追加情報に基づいて前記実行コマンドの送信有無を決定する請求項2に記載のコマンド制御装置。 The command control device according to claim 2, wherein the presence / absence of transmission of the execution command is determined based on the recognition command and the additional information. 前記追加情報は、前記実行コマンドにより制御する前記制御対象の制御状態である状態情報を含む請求項2乃至請求項4のいずれか1項に記載のコマンド制御装置。 The command control device according to any one of claims 2 to 4, wherein the additional information includes state information which is a control state of the control target controlled by the execution command. 前記追加情報は、前記制御対象の制御状態ではない補助情報を含む請求項2乃至請求項4のいずれか1項に記載のコマンド制御装置。 The command control device according to any one of claims 2 to 4, wherein the additional information includes auxiliary information that is not a control state of the control target. 前記追加情報は、前記実行コマンドにより制御する前記制御対象の制御状態である状態情報と、前記制御対象の制御状態ではない補助情報を含む請求項2乃至請求項4のいずれか1項に記載のコマンド制御装置。 The additional information according to any one of claims 2 to 4, which includes state information that is a control state of the control target controlled by the execution command and auxiliary information that is not the control state of the control target. Command controller. 前記音声を認識して、前記認識コマンドを得る音声認識部と、
前記追加情報を得る追加情報取得手段と、
前記認識コマンドと、前記追加情報と、前記実行コマンドとの対応関係を記憶する記憶手段と、
前記対応関係から前記実行コマンドを生成する実行コマンド生成手段とを具備する請求項2に記載のコマンド制御装置。
A voice recognition unit that recognizes the voice and obtains the recognition command,
Additional information acquisition means for obtaining the additional information,
A storage means for storing the correspondence between the recognition command, the additional information, and the execution command.
The command control device according to claim 2, further comprising an execution command generating means for generating the execution command from the correspondence.
入力された音声に基づいて制御対象機器に対する制御命令を含む実行コマンドを生成するコマンド制御方法において、
前記音声を認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成することを特徴とするコマンド制御方法。
In a command control method that generates an execution command including a control command for a controlled device based on the input voice,
A command characterized by generating an execution command including one of a first control command included in the recognition command obtained by recognizing the voice and a second control command different from the first control command. Control method.
コンピュータが、入力された音声に基づいて制御対象機器に対する制御命令を含む実行コマンドを生成する制御プログラムにおいて、
前記音声を認識して得た認識コマンドに含まれる第1の制御命令と、前記第1の制御命令と異なる第2の制御命令とのいずれかを含む実行コマンドを生成する制御プログラム。
In a control program in which a computer generates an execution command including a control command for a controlled device based on an input voice.
A control program that generates an execution command including one of a first control command included in the recognition command obtained by recognizing the voice and a second control command different from the first control command.
JP2019221573A 2019-12-06 2019-12-06 Command controller, control method and control program Active JP7229906B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019221573A JP7229906B2 (en) 2019-12-06 2019-12-06 Command controller, control method and control program
PCT/CN2020/128811 WO2021109839A1 (en) 2019-12-06 2020-11-13 Instruction control apparatus and method, and non-volatile storage medium
CN202080005756.9A CN113228166B (en) 2019-12-06 2020-11-13 Command control device, control method, and nonvolatile storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019221573A JP7229906B2 (en) 2019-12-06 2019-12-06 Command controller, control method and control program

Publications (2)

Publication Number Publication Date
JP2021092612A true JP2021092612A (en) 2021-06-17
JP7229906B2 JP7229906B2 (en) 2023-02-28

Family

ID=76221412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221573A Active JP7229906B2 (en) 2019-12-06 2019-12-06 Command controller, control method and control program

Country Status (3)

Country Link
JP (1) JP7229906B2 (en)
CN (1) CN113228166B (en)
WO (1) WO2021109839A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119792A (en) * 1997-10-20 1999-04-30 Toyota Motor Corp Equipment controller with voice recognizing function, and voice recognizing device
JP2004061576A (en) * 2002-07-25 2004-02-26 Denso Corp Speech control unit
JP2004086150A (en) * 2002-06-28 2004-03-18 Denso Corp Voice control system
JP2007324866A (en) * 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus and television receiver
JP2012063582A (en) * 2010-09-16 2012-03-29 Denso Corp In-vehicle speech recognition device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI973093A (en) * 1997-07-23 1999-01-24 Nokia Mobile Phones Ltd A method for controlling a teleservice and a terminal
CN103442138A (en) * 2013-08-26 2013-12-11 华为终端有限公司 Voice control method, device and terminal
JP6779659B2 (en) * 2015-07-21 2020-11-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method and control device
CN105609103A (en) * 2015-12-18 2016-05-25 合肥寰景信息技术有限公司 Speech instant recognition system
CN109819297A (en) * 2017-11-22 2019-05-28 中国移动通信有限公司研究院 A kind of method of controlling operation thereof and set-top box
CN108766424A (en) * 2018-05-28 2018-11-06 深圳市天乔科技有限公司 Smart home intelligent sound learning control method
CN108882014A (en) * 2018-06-13 2018-11-23 成都市极米科技有限公司 Management method, managing device and the readable storage medium storing program for executing of smart television children's desktop
CN109448721A (en) * 2018-12-20 2019-03-08 西安Tcl软件开发有限公司 Sound control method, system, Cloud Server and speech ciphering equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119792A (en) * 1997-10-20 1999-04-30 Toyota Motor Corp Equipment controller with voice recognizing function, and voice recognizing device
JP2004086150A (en) * 2002-06-28 2004-03-18 Denso Corp Voice control system
JP2004061576A (en) * 2002-07-25 2004-02-26 Denso Corp Speech control unit
JP2007324866A (en) * 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus and television receiver
JP2012063582A (en) * 2010-09-16 2012-03-29 Denso Corp In-vehicle speech recognition device

Also Published As

Publication number Publication date
CN113228166A (en) 2021-08-06
JP7229906B2 (en) 2023-02-28
CN113228166B (en) 2023-02-28
WO2021109839A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US20230017928A1 (en) Method and system for voice based media search
US20190333515A1 (en) Display apparatus, method for controlling the display apparatus, server and method for controlling the server
US9219949B2 (en) Display apparatus, interactive server, and method for providing response information
US9520133B2 (en) Display apparatus and method for controlling the display apparatus
US8629940B2 (en) Apparatus, systems and methods for media device operation preferences based on remote control identification
US20140006022A1 (en) Display apparatus, method for controlling display apparatus, and interactive system
US20140195230A1 (en) Display apparatus and method for controlling the same
US9230559B2 (en) Server and method of controlling the same
TW201435856A (en) Electronic apparatus and method of controlling electronic apparatus
CN103916704A (en) Dialog-type interface apparatus and method for controlling the same
KR101743514B1 (en) Method for controlling external input and Broadcasting receiving apparatus thereof
US8600732B2 (en) Translating programming content to match received voice command language
US9214093B2 (en) Audio description availability notifier
JP7229906B2 (en) Command controller, control method and control program
KR102468214B1 (en) The system and an appratus for providig contents based on a user utterance
KR20100030474A (en) A method for providing service information and the apparatus thereof
JP7242423B2 (en) VIDEO SIGNAL PROCESSING DEVICE, VIDEO SIGNAL PROCESSING METHOD
KR20150084276A (en) Method for controlling internet protocol television and digital broadcast receiver thereto
JP2022112292A (en) Voice command processing circuit, reception device, server, system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7229906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150