JP2016062560A - Electronic apparatus and control method thereof - Google Patents

Electronic apparatus and control method thereof Download PDF

Info

Publication number
JP2016062560A
JP2016062560A JP2014192636A JP2014192636A JP2016062560A JP 2016062560 A JP2016062560 A JP 2016062560A JP 2014192636 A JP2014192636 A JP 2014192636A JP 2014192636 A JP2014192636 A JP 2014192636A JP 2016062560 A JP2016062560 A JP 2016062560A
Authority
JP
Japan
Prior art keywords
search
display
program
input voice
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014192636A
Other languages
Japanese (ja)
Inventor
丈次 山下
Joji Yamashita
丈次 山下
昌美 田中
Masami Tanaka
昌美 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Original Assignee
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Lifestyle Products and Services Corp filed Critical Toshiba Corp
Priority to JP2014192636A priority Critical patent/JP2016062560A/en
Publication of JP2016062560A publication Critical patent/JP2016062560A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus and a control method thereof capable of refining a searching keyword, or switching a provider which supplies a program to view or a storage unit which stores a program as a search object to reproduce.SOLUTION: The electronic apparatus includes input voice processing means and search control means. The input voice processing means identifies a search condition of a search object based on an input voice. The search control means switches a search region of the search object based on the search condition identified by the input voice processing means.SELECTED DRAWING: Figure 1

Description

この発明は、電子機器及びその制御方法に関する。   The present invention relates to an electronic device and a control method thereof.

テレビジョン受信装置(以下テレビ装置と呼称する)あるいはディスプレイ装置と接続するレコーダー装置は、放送事業者が放送する番組や配信事業者が供給する番組あるいはネットワークを通じて取得可能なコンテンツ(番組)を再生する。また、レコーダー装置あるいは記憶装置が接続された場合に番組を録画可能なテレビ装置は、再生中の番組(コンテンツ)を含め、同一時間帯に放送(供給)されている任意数の番組を録画できる。   A recorder device connected to a television receiver (hereinafter referred to as a television device) or a display device reproduces a program broadcast by a broadcaster, a program supplied by a distributor, or a content (program) that can be acquired through a network. . In addition, a television device capable of recording a program when a recorder device or a storage device is connected can record an arbitrary number of programs broadcast (supplied) in the same time zone, including a program (content) being played back. .

番組は、タイムシフト録画、通常録画及び自動録画、等のさまざまな記録形態により、録画される。タイムシフト録画は、一定期間の間、ユーザーが指定する特定のチャンネル(放送事業者や配信事業者)及び時間帯の番組を全て記録する。通常録画は、ユーザーがチャンネル(あるいは番組名)と時間とを指定して、番組単位で録画する。自動録画は、ユーザーが視聴した、あるいは録画した番組を再生した情報や通常録画のために録画予約した番組の情報、等に基づいてユーザーが再生するであろう、と予想される番組を自動的に録画する。   The program is recorded in various recording forms such as time shift recording, normal recording, and automatic recording. Time-shift recording records all programs in a specific channel (broadcaster or distributor) specified by the user and a time period for a certain period. In normal recording, a user designates a channel (or program name) and time, and records in units of programs. Automatic recording automatically records programs that the user expects to play based on information that the user has watched or played back recorded programs, information on programs reserved for normal recording, etc. Record on.

このような背景から、ユーザーが視聴もしくは再生可能な番組は、レコーダー装置あるいはテレビ装置が録画したもの及び現在放送(供給)されているものを併せると、相当数にのぼる。このため、ユーザーが、視聴もしくは再生しようとする番組を特定するためのさまざまな支援方法が提案されている。   From such a background, there are a considerable number of programs that can be viewed or reproduced by the user, including those recorded by the recorder device or television device and those currently broadcast (supplied). For this reason, various support methods have been proposed for the user to specify a program to be viewed or reproduced.

支援方法の一つとして、番組を特定するための再生条件の入力を、ユーザーが視聴もしくは再生しようとする番組を特定するためのユーザーの声(発話)を音声認識により認識し、認識したキーワード等を参照する方法が、提案されている。   One of the support methods is to recognize the user's voice (utterance) for identifying the program that the user intends to view or play by inputting the playback conditions for identifying the program, and the recognized keyword, etc. A method of referencing has been proposed.

特開2014−109897号公報JP 2014-109897 A 特開2014−109889号公報JP 2014-109889 A

しかしながら、音声認識により特定した番組が見つからない場合に、さらにキーワードを絞り込むこと、あるいは視聴しようとする番組を供給する事業者もしくは再生しようとする番組を記録している記憶装置を切り換えることは、考慮されていない。   However, if the program specified by voice recognition is not found, further narrowing down the keywords or switching the storage device storing the program to be played or the provider supplying the program to be viewed is considered. It has not been.

この発明の目的は、音声認識により特定した番組を検索する場合に、キーワードの絞り込みや視聴しようとする番組を供給する事業者もしくは再生しようとする番組を記録している検索対象の記憶装置を自動的に切り換える電子機器及びその制御方法を提供することである。   An object of the present invention is to automatically search a storage device to be searched for a program that supplies a program to be narrowed down or watched programs or a program to be played back when searching for a program specified by voice recognition. Electronic device and a control method thereof are provided.

実施形態の電子機器は、入力音声処理手段と、検索制御手段と、を具備する。入力音声処理手段は、入力音声に基づいて検索対象の検索条件を特定する。検索制御手段は、前記入力音声処理手段が特定した前記検索条件に基づいて、前記検索対象の検索先を切り換える。   The electronic apparatus according to the embodiment includes an input voice processing unit and a search control unit. The input voice processing means specifies a search condition to be searched based on the input voice. The search control means switches the search target search destination based on the search condition specified by the input voice processing means.

実施形態に係る電子機器及び電子機器と接続する電子機器の接続の一例を示す。An example of the connection of the electronic device which concerns on embodiment and the electronic device connected with an electronic device is shown. 実施形態に係る電子機器(映像再生装置)の一例を示す。1 illustrates an example of an electronic apparatus (video playback apparatus) according to an embodiment. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器による検索結果の表示例の一例を示す。An example of the display example of the search result by the electronic device which concerns on embodiment is shown. 実施形態に係る電子機器による検索結果の表示例の一例を示す。An example of the display example of the search result by the electronic device which concerns on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器による検索結果の表示例の一例を示す。An example of the display example of the search result by the electronic device which concerns on embodiment is shown. 実施形態に係る電子機器の検索エンジン切換の手法の一例をソフトウェア的に示す。An example of a technique for switching search engines of an electronic device according to the embodiment is shown in software. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown. 実施形態に係る電子機器(検索機能)の動作と画面表示の一例を示す。An example of operation | movement and screen display of the electronic device (search function) which concern on embodiment is shown.

以下、図面を参照して、本発明の実施の一形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、実施形態に係る電子機器及び電子機器と接続する電子機器の接続の一例を示す。   FIG. 1 illustrates an example of connection between an electronic device according to the embodiment and an electronic device connected to the electronic device.

図1が示すように、例えばテレビジョン受信装置(以下、テレビ装置と称する)である映像再生装置(第一の電子機器)1は、例えばレコーダー装置である映像記録装置(第二の電子機器)2と家庭内ネットワークコントローラー(ホームサーバー)3を通じて接続する。なお、ホームサーバー3には、例えばレコーダー装置4及びレコーダー装置4と接続するディスプレイ装置5のような他の電子機器、が接続することが可能である。また、映像再生装置1には、例えばUSB(Universal Serial Bus)インターフェースを介して接続する記憶装置6が接続する。なお、記憶装置6は、タイムシフトマシン機能により録画される番組を保持する。もちろん、記憶装置6は、通常録画や自動録画のための記憶領域を有することも可能である。その場合、任意のサイズ(記憶容量)を設定により割り当てることができる。   As shown in FIG. 1, for example, a video playback device (first electronic device) 1 that is a television receiver (hereinafter referred to as a television device) is a video recording device (second electronic device) that is a recorder device, for example. 2 and the home network controller (home server) 3. The home server 3 can be connected to, for example, a recorder device 4 and other electronic devices such as a display device 5 connected to the recorder device 4. In addition, a storage device 6 connected via, for example, a USB (Universal Serial Bus) interface is connected to the video reproduction device 1. The storage device 6 holds a program recorded by the time shift machine function. Of course, the storage device 6 can also have a storage area for normal recording and automatic recording. In that case, an arbitrary size (storage capacity) can be assigned by setting.

なお、ホームサーバー3は、映像再生装置1または映像記録装置2の何れか一方と一体化されてもよい。その場合、映像再生装置1と、記憶装置6、レコーダー装置4(ディスプレイ装置5)及びレコーダー装置2とが相互に接続している、とみなすことができる。   The home server 3 may be integrated with either the video playback device 1 or the video recording device 2. In that case, it can be considered that the video reproduction device 1, the storage device 6, the recorder device 4 (display device 5), and the recorder device 2 are connected to each other.

映像再生装置1はまた、外部ネットワーク(インターネット網)NTWを通じ、例えばデータベース提供会社が運営するサービスサーバー7、映像再生装置1との間の契約に従う特別なサービスを提供するサービス会社が運営するサービスサーバー8、及びコンテンツ提供サービス会社が運営するコンテンツサーバー9(例えばYouTube(登録商標))、等のさまざまなサービスサーバーと接続する。   The video playback device 1 is also operated via an external network (Internet network) NTW, for example, a service server 7 operated by a database provider, and a service server operated by a service company that provides a special service according to a contract with the video playback device 1. 8 and various service servers such as a content server 9 (for example, Youtube (registered trademark)) operated by a content providing service company.

なお、個々の装置相互間においては、文字情報や動画あるいは静止画もしくはそれらを含む画像データの受け渡し、制御信号または制御データの受け渡し、等が可能である。また、個々の装置相互間における上述の各種データの受け渡しは、光ファイバや従来からの通信網を用いる有線式あるいは空間波を用いる無線式のいずれの方式も利用可能である。   Note that character information, moving images, still images, or image data including them can be exchanged between each device, and control signals or control data can be exchanged. In addition, the above-described various data can be exchanged between individual apparatuses using either a wired system using an optical fiber or a conventional communication network or a wireless system using a spatial wave.

図2は、実施形態に係る映像再生装置(第一の電子機器)の構成の一例を示す。   FIG. 2 shows an example of the configuration of the video playback apparatus (first electronic device) according to the embodiment.

テレビ装置(第一の電子機器)1は、入力部(チューナ)11、信号処理部(TS分離部)12、映像処理ブロック21、音声処理ブロック31及び主制御ブロック51、等を含む。なお、テレビ装置1においては、表示部(ディスプレイ)が別体であってもよい。すなわち、表示部は、テレビ装置1と非接触で、映像記憶装置が無線方式により送信する番組を表示するものであってもよい。なお、以下に説明する要素や構成は、処理装置すなわちマイクロコンピュータ(CPU(Central Processing Unit))によりソフトウェアで実現するものであってもよいしハードウェアで実現するものであってもよい。また、以下の説明において、放送は、空間を伝播する電波として放送事業者(放送局)が提供するもの、あるいはケーブル(光ファイバを含む)網やIP(Internet Protocol)網等のネットワークを通じて配信事業者が配信するもの等、を含む。また、放送は、映像と音声または音楽もしくはその両者を含み、一定時間(放送時間)を単位とするさまざまな番組を提供する形態を示す。なお、番組は、コンテンツもしくはストリームと呼称する場合もある。また、映像は、動画や静止画、あるいはテキスト(コード化された符号列で示される文字や記号等で表される情報)ならびにその任意の組み合わせを含む。   The television apparatus (first electronic device) 1 includes an input unit (tuner) 11, a signal processing unit (TS separation unit) 12, a video processing block 21, an audio processing block 31, a main control block 51, and the like. In the television apparatus 1, the display unit (display) may be a separate body. That is, the display unit may display a program that the video storage device transmits in a wireless manner without contact with the television device 1. The elements and configurations described below may be realized by software by a processing device, that is, a microcomputer (CPU (Central Processing Unit)), or may be realized by hardware. In the following description, broadcasting is a distribution business through what is provided by a broadcaster (broadcasting station) as radio waves propagating in space, or a network such as a cable (including optical fiber) network or an IP (Internet Protocol) network. Including those distributed by the user. In addition, broadcasting indicates a form in which various programs including video and audio and / or music and providing a certain time (broadcast time) as a unit are provided. A program may be referred to as a content or a stream. In addition, the video includes a moving image, a still image, text (information represented by characters or symbols indicated by a coded code string), and any combination thereof.

入力部11には、空間波(地上波あるいは衛星波)を用いて提供される放送を受信するアンテナANTが接続する。入力部11にはまた、外部映像供給元として、例えばSTB(Set Top Box)やビデオカメラ装置、等が接続する。なお、ビデオカメラ装置は、画像撮影が可能な携帯可能な端末装置、例えばタブレットPC(Personal Computer)装置、等であってもよい。   The input unit 11 is connected to an antenna ANT that receives a broadcast provided using a spatial wave (a ground wave or a satellite wave). For example, an STB (Set Top Box) or a video camera device is connected to the input unit 11 as an external video supply source. The video camera device may be a portable terminal device capable of taking an image, such as a tablet PC (Personal Computer) device.

入力部11に入力する放送あるいはビデオカメラ装置等からの外部入力画像は、信号処理部(TS分離部)12が、TS(Transport Stream)すなわち映像信号(ビデオ)及び音声信号(オーディオ)、ならびに制御情報に分離する。なお、制御情報は、例えばTS(ストリーム)の分配規則や内容、スケジュールあるいはタイミング、等を記述したSI(Service Information、番組配列情報)、等を含む。   A signal processing unit (TS separation unit) 12 controls a TS (Transport Stream), that is, a video signal (video) and an audio signal (audio), and controls an external input image from a broadcast or a video camera device input to the input unit 11. Separate into information. The control information includes, for example, SI (Service Information, program arrangement information) describing TS distribution rules and contents, schedule or timing, and the like.

映像信号(ビデオ)は、映像処理ブロック21の映像デコーダ22がデコードし、デジタル映像信号(ビデオ出力)として出力する。   The video signal (video) is decoded by the video decoder 22 of the video processing block 21 and output as a digital video signal (video output).

映像処理ブロック21及び音声処理ブロック31には、それぞれ、ディスプレイ26及びスピーカ36が接続する。   A display 26 and a speaker 36 are connected to the video processing block 21 and the audio processing block 31, respectively.

映像処理ブロック21は、映像(ビデオ)デコーダ22、映像(ビデオ)処理部23、
OSD(On Screen Display)処理部24及び表示制御部25、等を含む。
The video processing block 21 includes a video (video) decoder 22, a video (video) processing unit 23,
An OSD (On Screen Display) processing unit 24, a display control unit 25, and the like are included.

映像処理部23は、映像デコーダ22がデコードしたデジタル映像信号をディスプレイ26が表示可能な所定の解像度及び出力方式に変換する。表示制御部25は、映像処理部23が変換した映像信号を、ディスプレイ26における好適な表示(映像再生)が可能な表示駆動信号に変換する。表示制御部25はまた、OSD処理部24からのOSD(On Screen Display)信号と表示駆動信号とを合成する。なお、表示制御部25の出力は、例えば外部に接続する外部モニタ装置あるいは投影装置(プロジェクタ装置)等が接続可能な出力端27に出力されてもよい。   The video processing unit 23 converts the digital video signal decoded by the video decoder 22 into a predetermined resolution and output method that can be displayed on the display 26. The display control unit 25 converts the video signal converted by the video processing unit 23 into a display drive signal capable of suitable display (video reproduction) on the display 26. The display control unit 25 also synthesizes an OSD (On Screen Display) signal from the OSD processing unit 24 and a display drive signal. The output of the display control unit 25 may be output to the output terminal 27 to which an external monitor device or a projection device (projector device) connected to the outside can be connected, for example.

音声処理ブロック31は、音声(オーディオ)デコーダ32、音声(オーディオ)処理部33、遅延部34及びD−A(Digital to Analog)コンバータ35、等を含む。   The audio processing block 31 includes an audio (audio) decoder 32, an audio (audio) processing unit 33, a delay unit 34, a DA (Digital to Analog) converter 35, and the like.

音声信号(オーディオ)については、音声処理部33において音声デコーダ32がデコードした音声信号を、スピーカ36による好適な再生が可能な所定の形式に変換する。D−Aコンバータ35は、音声処理部33が変換した音声信号を、アナログ音声出力信号に変換する。これにより、D−Aコンバータ35にスピーカ36を接続した場合に、スピーカ36が可聴音(アナログ音声(オーディオ)出力)を出力する。なお、D−Aコンバータ35の出力は、例えばAV(Audio Visual)アンプ等が接続可能な出力端37に分岐してもよい。また、D−Aコンバータ35に入力する音声信号は、コンテンツの種類に対応して、遅延部34による所定量(時間)の遅延が制御される。例えばコンテンツがゲームである場合、遅延部34が規定する遅延(時間)の大きさ(長さ)は、放送信号(番組)を再生する場合に適用する遅延(時間)の大きさ(長さ)よりも小さい(短い)。   As for the audio signal (audio), the audio signal decoded by the audio decoder 32 in the audio processing unit 33 is converted into a predetermined format that can be suitably reproduced by the speaker 36. The DA converter 35 converts the audio signal converted by the audio processing unit 33 into an analog audio output signal. Thereby, when the speaker 36 is connected to the DA converter 35, the speaker 36 outputs an audible sound (analog voice (audio) output). Note that the output of the DA converter 35 may be branched to an output terminal 37 to which an AV (Audio Visual) amplifier or the like can be connected, for example. The audio signal input to the DA converter 35 is controlled to be delayed by a predetermined amount (time) by the delay unit 34 in accordance with the type of content. For example, when the content is a game, the size (length) of the delay (time) defined by the delay unit 34 is the size (length) of the delay (time) applied when the broadcast signal (program) is reproduced. Smaller (shorter).

操作部61は、ユーザーによる直接操作に対応する制御コマンドを主制御ブロック51に入力する。   The operation unit 61 inputs a control command corresponding to a direct operation by the user to the main control block 51.

受信部62は、リモコン端末(リモートコントローラ)71による指示(操作入力)に対応するコマンドを主制御ブロック51に入力する。なお、リモコン端末71は、「ボイス」キー71a及びマイク71bを有する。   The receiving unit 62 inputs a command corresponding to an instruction (operation input) from the remote control terminal (remote controller) 71 to the main control block 51. The remote control terminal 71 has a “voice” key 71a and a microphone 71b.

通信インターフェース63は、例えばWiFi(Wireless Fidelity)規格等に準拠する近距離無線通信機器との間の無線通信を実現する。なお、近距離無線通信規格としては、例えばBluetooth(登録商標)規格やNFC(Near Field Communication)等も利用可能である。通信インターフェース63は、有線方式/無線方式のいずれであってもよく、例えばワイヤレスキーボードやマウス等との間の信号の受け渡しが可能な通信ユニット、等が接続する。また、通信インターフェース63は、例えばタブレット端末(スマートフォンや、携帯可能なPC(パーソナルコンピュータ))との間の直接通信を行う。   The communication interface 63 realizes wireless communication with a short-range wireless communication device compliant with, for example, the WiFi (Wireless Fidelity) standard. In addition, as the near field communication standard, for example, Bluetooth (registered trademark) standard, NFC (Near Field Communication), or the like can be used. The communication interface 63 may be either a wired system or a wireless system. For example, a communication unit capable of exchanging signals with a wireless keyboard, a mouse, or the like is connected. The communication interface 63 performs direct communication with, for example, a tablet terminal (smart phone or portable PC (personal computer)).

ネットワーク制御部64は、ネットワークNTWへのアクセス、ネットワークNTW上のさまざまなサービス(ウェブページ)あるいはサーバーからの情報の取得、あるいは情報の取得のための入力情報の送信、等を制御する。これにより、図1により説明したサービスサーバー7、サービスサーバー8及びコンテンツサーバー9との間の情報の受け渡しや、さまざまな検索、等が可能である。   The network control unit 64 controls access to the network NTW, acquisition of information from various services (web pages) or servers on the network NTW, transmission of input information for acquiring information, and the like. Thereby, it is possible to exchange information between the service server 7, the service server 8, and the content server 9 described with reference to FIG. 1, various searches, and the like.

USBインターフェース65は、例えばUSB規格に対応する記憶装置(USBHDD)例えばUSB規格に準拠する外部装置、例えばキーボード等の利用を可能とする。なお、USBインターフェース65に、既に説明した記憶装置6が接続されることで、一定期間の間、ユーザーが指定する特定のチャンネル(放送事業者や配信事業者)及び時間帯の番組を全て記録するタイムシフト録画が可能である。記憶装置6はまた、通常録画や自動録画により録画される番組も記憶する。   The USB interface 65 can use, for example, a storage device (USB HDD) corresponding to the USB standard, for example, an external device compliant with the USB standard, such as a keyboard. Note that the storage device 6 already described is connected to the USB interface 65 to record all the programs in a specific channel (broadcaster or distribution operator) and time zone designated by the user for a certain period. Time-shift recording is possible. The storage device 6 also stores programs recorded by normal recording or automatic recording.

HDMIインターフェース(制御部)66は、HMDI(High-definition Digital Media Interface(登録商標))規格またはMHL(Mobile High-definition Link)規格を利用する機器相互間の有線通信を可能とする。なお、HDMIインターフェース66には、図1に示したレコーダー装置2またはレコーダー装置4が接続されることにより、テレビ装置1が受信する番組のレコーダー装置2またはレコーダー装置4による録画やレコーダー装置2またはレコーダー装置4が保持する番組のテレビ装置1による視聴も可能となる。   The HDMI interface (control unit) 66 enables wired communication between devices using the HMDI (High-definition Digital Media Interface (registered trademark)) standard or the MHL (Mobile High-definition Link) standard. Note that the HDMI interface 66 is connected to the recorder device 2 or the recorder device 4 shown in FIG. 1, thereby recording the program received by the television device 1 by the recorder device 2 or the recorder device 4 or recording the recorder device 2 or the recorder. The television apparatus 1 can also view programs held by the apparatus 4.

記憶装置(HDD(Hard Disk Drive))67は、受信(取得)した番組(コンテンツ)を記憶する。記憶装置67は、主としてユーザーがチャンネル(あるいは番組名)と時間とを指定して、番組単位で録画する通常録画による録画番組の保存、あるいはユーザーが視聴した、あるいは録画した番組を再生した情報や通常録画のために録画予約した番組の情報、等に基づいてユーザーが再生するであろう、と予想される番組を自動的に録画する自動録画による録画番組の保存に利用される。なお、記憶装置67の記憶容量の一部は、タイムシフト録画による録画番組の保存に割り当てることができる。また、記憶装置67が保持する映像信号や音声信号等は、ネットワーク制御部64を経由して、他の機器あるいはネットワークNTWに出力することが可能である。なお、ネットワーク制御部64を経由して入力する他の機器からの映像信号や音声信号等は、記憶装置67が保持することなく、ディスプレイ26やスピーカ36においてそのまま再生することも可能である。   A storage device (HDD (Hard Disk Drive)) 67 stores a received (acquired) program (content). The storage device 67 mainly stores a recorded program by normal recording in which a user designates a channel (or program name) and time, and records in units of programs, or information that has been viewed or reproduced by a user. It is used for storing a recorded program by automatic recording that automatically records a program expected to be reproduced by a user based on information of a program reserved for normal recording. A part of the storage capacity of the storage device 67 can be allocated to save a recorded program by time shift recording. Further, the video signal, the audio signal, and the like held by the storage device 67 can be output to other devices or the network NTW via the network control unit 64. Note that video signals, audio signals, and the like from other devices input via the network control unit 64 can be reproduced as they are on the display 26 and the speaker 36 without being held in the storage device 67.

主制御ブロック51は、上述の操作部61、受信部62、通信インターフェース63、ネットワーク制御部64、USBインターフェース65、HDMIインターフェース66、及び記憶装置67、等と接続し、それぞれの動作を制御する。   The main control block 51 is connected to the operation unit 61, the receiving unit 62, the communication interface 63, the network control unit 64, the USB interface 65, the HDMI interface 66, the storage device 67, and the like described above, and controls the operations thereof.

主制御ブロック51は、例えばCPU(主処理回路)52、ROM(読出専用メモリ)53、RAM(ランダムアクセスメモリ(ワークメモリ))54、NVM(不揮発性(書き換え可能)メモリ)55及び音声検索制御部56、等を含む。   The main control block 51 includes, for example, a CPU (main processing circuit) 52, a ROM (read only memory) 53, a RAM (random access memory (work memory)) 54, an NVM (nonvolatile (rewritable) memory) 55, and a voice search control. Part 56, and the like.

CPU(主処理回路)52は、RAM54が提供する作業エリアにおいて、ROM53が保持する制御プログラムに基づき、入力信号や制御信号に対応する処理を実行する。   The CPU (main processing circuit) 52 executes processing corresponding to an input signal and a control signal based on a control program held in the ROM 53 in a work area provided by the RAM 54.

NVM55は、各種の設定情報や、音声検索制御部56による音声検索機能を実行するための動作プログラム及び後段に説明する意図解析部58が参照する意図判別データベース、等を保持する。   The NVM 55 holds various setting information, an operation program for executing a voice search function by the voice search control unit 56, an intention determination database referred to by an intention analysis unit 58 described later, and the like.

音声検索制御部56は、入力音声処理部57と意図解析部58と接続する。なお、入力音声処理部57及び意図解析部58は、音声検索制御部56と一体であってもよい。また、NVM55が保持する意図判別データベースは、意図判別データベース59として、独立に用意されてもよい。その場合、独立に用意される意図判別データベース59は、意図解析部58と接続されることが好ましい。なお、音声検索制御部56及び意図解析部58は、ホームサーバー3に用意されてもよいし、ネットワークNTWを介して接続する任意の外部のサービスサーバーに用意されてもよい。   The voice search control unit 56 is connected to the input voice processing unit 57 and the intention analysis unit 58. The input voice processing unit 57 and the intention analysis unit 58 may be integrated with the voice search control unit 56. The intention determination database held by the NVM 55 may be prepared independently as the intention determination database 59. In that case, it is preferable that the intention determination database 59 prepared independently is connected to the intention analysis unit 58. The voice search control unit 56 and the intention analysis unit 58 may be prepared in the home server 3 or may be prepared in any external service server connected via the network NTW.

入力音声処理部57は、音声検索制御部56による音声検索の実行時に、リモコン71のマイク71bから入力する入力音声に対し、文節区切りや単語認識、等の入力音声処理を実行する。なお、リモコン71にマイク71bが用意されていない場合あるいはテレビ装置1にマイク68が用意されている場合は、入力音声処理部57は、マイク68が取り込んだ音声について、音声検索の実行時に、入力音声処理を実行する。   The input speech processing unit 57 performs input speech processing such as phrase breaks and word recognition on the input speech input from the microphone 71b of the remote controller 71 when the speech search control unit 56 executes speech search. When the microphone 71 b is not prepared in the remote controller 71 or when the microphone 68 is prepared in the television apparatus 1, the input voice processing unit 57 inputs the voice captured by the microphone 68 when performing the voice search. Perform audio processing.

マイク71bまたはマイク68からの入力音声は、A−Dコンバータ69によりデジタル信号に変換され、音声検索制御部56に供給される。   The input voice from the microphone 71 b or the microphone 68 is converted into a digital signal by the AD converter 69 and supplied to the voice search control unit 56.

意図解析部58は、音声検索制御部56による音声検索の実行時に、入力音声処理部57による入力音声処理により特定された文節区切りや単語認識、等の結果として得られる文字列(発話内容)が意図する、ユーザーの音声指示(制御入力)の内容を解析する(以下意図解析と称する)。この意図解析により、ユーザーの音声指示が意図する検索すべき番組(またはコンテンツ)あるいはシーンもしくは外部ネットワークのコンテンツの音声検索による検索精度が向上できる。なお、意図解析部58における意図解析時には、意図判別データベース(または意図判別データベース59)が保持するデータベースと発話内容(入力音声処理において特定された文字列)が比較される。、
なお、音声検索制御部56、入力音声処理部57及び意図解析部58は、CPU52のファームウェアであってもよい。また、音声検索制御部56、入力音声処理部57及び意図解析部58の動作プログラムや参照するデータ、等は、外部からの書き換えあるいはアップデート(バージョンアップ)が可能である。なお、NVM55が保持する意図判別データベース(意図判別データベース59)、音声検索制御部56、入力音声処理部57及び意図解析部58の動作プログラム、等は、記憶装置67の所定の領域に記憶されてもよい。また、NVM55が保持する意図判別データベース(意図判別データベース59)は、サービスサーバー8、等の外部ネットワーク上の記憶部が記憶するものであってもよい。
The intention analysis unit 58 uses a character string (utterance content) obtained as a result of phrase breaks, word recognition, and the like specified by the input speech processing by the input speech processing unit 57 when the speech search control unit 56 performs speech search. The content of the intended voice instruction (control input) of the user is analyzed (hereinafter referred to as intention analysis). By this intention analysis, it is possible to improve the search accuracy by voice search of a program (or content) to be searched or a content of a scene or an external network intended by the user's voice instruction. At the time of intention analysis in the intention analysis unit 58, the database held in the intention determination database (or intention determination database 59) is compared with the utterance content (character string specified in the input voice processing). ,
Note that the voice search control unit 56, the input voice processing unit 57, and the intention analysis unit 58 may be firmware of the CPU 52. In addition, the operation programs of the voice search control unit 56, the input voice processing unit 57, and the intention analysis unit 58, data to be referred to, and the like can be rewritten or updated (upgraded) from the outside. Note that the intention determination database (intention determination database 59), the voice search control unit 56, the input voice processing unit 57, and the operation program of the intention analysis unit 58 stored in the NVM 55 are stored in a predetermined area of the storage device 67. Also good. The intention determination database (intention determination database 59) held by the NVM 55 may be stored in a storage unit on the external network such as the service server 8.

主制御ブロック51は、CPU52により、操作部61からの操作情報(制御入力)や受信部62が受信するリモコン端末71からの操作情報(制御入力)に基づいて、上述の各部要素を制御する。   The main control block 51 controls the above-described respective elements by the CPU 52 based on operation information (control input) from the operation unit 61 and operation information (control input) from the remote control terminal 71 received by the reception unit 62.

また、主制御ブロック51は、映像デコーダ22及び音声デコーダ32が出力する映像信号や音声信号等を、ユーザーの操作指示(制御入力)に基づいて、記憶装置67に記録することが可能である。記憶装置67への映像信号や音声信号等の記録に際しては、主制御ブロック51は、映像信号や音声信号等を暗号化処理し、所定の記録フォーマットに変換する。主制御ブロック51は、ユーザーによるリモコン端末71、等からの指示入力に基づいて、記憶装置67から所望の映像信号や音声信号等を読み出し、復号し、映像デコーダ22及び音声デコーダ32に供給して、映像表示や音声再生を実行する。   The main control block 51 can record the video signal, the audio signal, and the like output from the video decoder 22 and the audio decoder 32 in the storage device 67 based on a user operation instruction (control input). When recording a video signal, an audio signal, or the like in the storage device 67, the main control block 51 encrypts the video signal, the audio signal, etc., and converts it into a predetermined recording format. The main control block 51 reads out a desired video signal or audio signal from the storage device 67 based on an instruction input from the remote control terminal 71 or the like by the user, decodes it, and supplies it to the video decoder 22 and the audio decoder 32. Execute video display and audio playback.

主制御ブロック51はまた、NVM55もしくはROM53が保持するプログラムまたはアプリケーションあるいはCPU52のファームウェアにより、信号処理部(TS分離部)12が分離するTSから字幕情報(ニュース番組においてアンカー(アナウンサ)が発声した音声を字幕化した生字幕を含む)やEPG(電子番組表)情報を、取得できる。   The main control block 51 also includes subtitle information (sound uttered by the anchor (announcer) in the news program) from the TS separated by the signal processing unit (TS separation unit) 12 by the program or application stored in the NVM 55 or the ROM 53 or the firmware of the CPU 52. And EPG (electronic program guide) information can be acquired.

主制御ブロック51はまた、リモコン端末71の「ボイス」キー71aがオンされる、またはテレビ装置1のディスプレイ26が表示する設定画面において、「ボイス」ボタン表示321(図3参照)を押すことで入力される制御入力(操作指示)に従い、音声検索制御部56の音声検索機能を起動する。なお、「ボイス」ボタン表示321の代わりに、リモコン端末71において、「ボイス」ボタンの機能が割り当てられる「青」ボタン71B/「赤」ボタン71R/「緑」ボタン71Gの何れかをオンすることによっても、音声検索機能を起動するための制御コマンドを送信できるものとする。また、リモコン端末71において、「黄」ボタン71Yには、音声検索機能の取り消しを指示入力可能な「取り消し」ボタンに対応する制御コマンド、または一つ前の画面表示に戻る「戻る」ボタンに対応する制御コマンドを入力できる機能が割り当てられるものとする。   The main control block 51 also presses the “voice” button display 321 (see FIG. 3) on the setting screen displayed on the display 26 of the television apparatus 1 when the “voice” key 71a of the remote control terminal 71 is turned on. The voice search function of the voice search control unit 56 is activated according to the input control input (operation instruction). In place of the “voice” button display 321, any one of the “blue” button 71 B / “red” button 71 R / “green” button 71 G to which the function of the “voice” button is assigned is turned on in the remote control terminal 71. It is also possible to transmit a control command for starting the voice search function. In the remote control terminal 71, the “yellow” button 71Y corresponds to a control command corresponding to a “cancel” button capable of inputting an instruction to cancel the voice search function or a “return” button for returning to the previous screen display. It is assumed that a function capable of inputting a control command is assigned.

図3に、テレビ装置(第一の電子機器)1における音声検索機能を適用する検索制御の一例を示す。   FIG. 3 shows an example of search control that applies the voice search function in the television apparatus (first electronic device) 1.

例えば、リモコン端末71の「ボイス」キー71aがオンされる、またはテレビ装置1のディスプレイ26が表示する設定画面において図3に示す画面表示301の音声検索機能起動選択画面表示311内の「ボイス」ボタン表示(起動選択表示311における「はい」ボタン)321が押されることで入力される制御入力(操作指示)に基づき、音声検索制御部56による音声検索機能が起動する。   For example, the “voice” key 71a of the remote control terminal 71 is turned on or “voice” in the voice search function activation selection screen display 311 of the screen display 301 shown in FIG. 3 on the setting screen displayed on the display 26 of the television apparatus 1. The voice search function by the voice search control unit 56 is started based on a control input (operation instruction) input by pressing the button display (“Yes” button in the start selection display 311) 321.

音声検索機能が起動すると、図4に示すように、ユーザーが視聴または再生可能な番組の中からユーザーが視聴または再生するであろう番組をユーザーに提示するために用いるキーワードあるいは検索条件を音声により入力可能な音声検索入力画面表示401が表示される。なお、ユーザーが視聴もしくは再生可能な番組は、例えばテレビ装置1が現在受信中の番組あるいは選局に受信可能な番組、記憶装置6または記憶装置67が保持する録画された番組(もしくはレコーダー装置2またはレコーダー装置4が保持する録画された番組)等、相当数に上る。このため、以下に説明するように、音声検索機能においては、(音声検索機能の)入力音声処理において特定された文字列(発話内容)に基づく番組の検索を、例えばタイムシフト録画された番組、通常録画された番組、自動録画された番組の順に、検索することが好ましい。なお、音声検索機能においては、入力音声処理において特定された文字列(発話内容)が番組の録画予約に関するものであることを特定できた場合には、予約録画(通常録画)のための録画予約を設定する(登録する)ことも可能である。また、音声検索機能においては、入力音声処理において特定された文字列(発話内容)に基づいて、録画された番組中の特定のシーンを検索するシーン検索(サービスサーバー8を利用)あるいはネットワークNTW上においてコンテンツを提供するコンテンツサーバー9が保持するコンテンツ(番組)も検索可能である。   When the voice search function is activated, as shown in FIG. 4, a keyword or search condition used for presenting to the user a program that the user will watch or play from among the programs that the user can watch or play is expressed by voice. An inputable voice search input screen display 401 is displayed. Note that the program that can be viewed or reproduced by the user is, for example, a program that is currently being received by the television device 1 or a program that can be received by the channel selection, a recorded program that is stored in the storage device 6 or the storage device 67 (or the recorder device 2). Or a recorded program held by the recorder device 4). For this reason, as will be described below, in the voice search function, a search for a program based on the character string (utterance content) specified in the input voice processing (of the voice search function) It is preferable to search in the order of the normally recorded program and the automatically recorded program. In the voice search function, when it is possible to specify that the character string (utterance content) specified in the input voice processing is related to the program recording reservation, the recording reservation for reserved recording (normal recording) is performed. It is also possible to set (register). In the voice search function, a scene search (using the service server 8) for searching for a specific scene in a recorded program based on the character string (utterance content) specified in the input voice processing or on the network NTW The content (program) held by the content server 9 that provides the content can also be searched.

図4が示す画面表示401においては、音声検索機能の起動が指示(リモコン端末71の「ボイス」キー71aのオンまたはテレビ装置1の画面表示内の「ボイス」ボタン表示321(図3参照)による制御入力(操作指示))されることで、画面中央の最上部に、例えばマイク(マイクロフォン)を模ししたステータスアイコン(マイクアイコン)421が表示される。   In the screen display 401 shown in FIG. 4, activation of the voice search function is instructed (by turning on the “voice” key 71 a of the remote control terminal 71 or “voice” button display 321 in the screen display of the television apparatus 1 (see FIG. 3). When a control input (operation instruction) is performed, a status icon (microphone icon) 421 simulating a microphone (microphone), for example, is displayed at the top of the center of the screen.

なお、ステータスアイコン421は、図5(a)−図5(e)に一例を示すが、例えば「準備中(起動中)」を表す第一パターン表示521、「録音可能状態」を表す第二パターン表示522、「録音中の入力音量の大きさ」を表す第三パターン表示523、「録音終了(入力受付停止)、内容認識及び意図解析中」を表す第四パターン表示524、「認識結果及び解析結果表示中」を表す第五パターン表示525、等にその都度、遷移するものとする。   The status icon 421 is shown as an example in FIGS. 5A to 5E. For example, the first pattern display 521 indicating “preparing (starting up)” and the second indicating “recordable state”. Pattern display 522, third pattern display 523 indicating “volume of input volume during recording”, fourth pattern display 524 indicating “recording end (input acceptance stopped), content recognition and intention analysis in progress”, “recognition result and It is assumed that a transition is made to the fifth pattern display 525 indicating “analysis result display in progress”.

図5(a)に示すように、第一パターン表示521は、起動中(準備中)の間、表示された絵柄が変化しない固定的な表示である。なお、録音可能状態ではない(未だ録音できない)ことを明示するために、例えば、背景色及びマイクアイコンそのものの表示の明るさを一定の範囲で暗くするトーンダウン、等の手法を用いることが好ましい。   As shown in FIG. 5A, the first pattern display 521 is a fixed display in which the displayed pattern does not change during activation (preparation). In order to clearly indicate that the recording is not possible (not yet possible to record), it is preferable to use a technique such as a tone down that darkens the brightness of the background color and the display of the microphone icon itself within a certain range. .

図5(b)に示すように、第二パターン表示522は、音声検索機能の起動処理完了時(準備完了時)、すなわち「録音可能状態」に表示されるもので、マイクアイコン421の表示の明るさがトーンアップ(明るさが設定されている通常の明るさに変更)される、あるいは設定された明るさを最大の明るさとして点滅する、もしくは背景色が変化する、等、図5(a)が示す起動中表示から、ユーザーの発話を促す動的な表示に変化するものとする。なお、準備完了とともに、例えば[メロディ(アラーム)]を鳴らす(メロディ音響出力を出力し、スピーカ36でメロディ音を出力する)ことも可能である。   As shown in FIG. 5B, the second pattern display 522 is displayed when the voice search function activation process is completed (preparation is completed), that is, in the “recordable state”, and the display of the microphone icon 421 is displayed. The brightness is toned up (changed to the normal brightness where the brightness is set), the set brightness flashes as the maximum brightness, or the background color changes, etc. It is assumed that the display during startup indicated by a) changes to a dynamic display that prompts the user to speak. When the preparation is completed, for example, [melody (alarm)] can be sounded (a melody sound output is output and a melody sound is output from the speaker 36).

図5(c)に示すように、第三パターン表示523は、「録音可能状態」において入力されるユーザーの声の大きさを可視化して表示するもので、例えばマイクアイコン(ステータスアイコン)421の表示領域の高さ方向を所定数に分割し、入力する声の大きさに対応して分割した範囲内で声の大きさを直感的に目視可能に、表示する。表示領域の分割数が、例えば16である場合、マイク71b(リモコン端末71)あるいはテレビ装置1のマイク68に入力するユーザーの声の大きさが適正な大きさである場合に、例えば6〜11の範囲に表示されるよう、マイクの入力感度やA−Dコンバータの変換計数を設定することが好ましい。すなわち、第三パターン表示523は、入力音声(ユーザーの発話(声))の大きさが音声検索機能における音声認識に適した大きさである場合に、分割した表示領域の概ね中央付近(中央)に、入力音声のレベルを表示するよう、設定される。もちろん、表示の方法としては、音声の大きさ(強度)に基づいて表示範囲(分割数のうちの最下位位置からの表示高さ)が連続的に変化するバーグラフ状であってもよいし、バーグラフ表示のうちの最大の強度(音量)を示す表示が一時的に(例えば1秒程度)、すぐに消えることなく点灯状態を維持するホールド機能、等が用意されてもよい。   As shown in FIG. 5C, the third pattern display 523 visualizes and displays the loudness of the user's voice input in the “recordable state”. For example, the third pattern display 523 displays a microphone icon (status icon) 421. The height direction of the display area is divided into a predetermined number, and the loudness of the voice is displayed in an intuitively visible manner within the range divided according to the loudness of the input voice. When the number of divisions of the display area is 16, for example, 6 to 11 when the loudness of the user's voice input to the microphone 71b (remote control terminal 71) or the microphone 68 of the television apparatus 1 is appropriate. It is preferable to set the input sensitivity of the microphone and the conversion count of the A-D converter so as to be displayed in the range. That is, the third pattern display 523 is approximately the center (center) of the divided display area when the size of the input speech (user's utterance (voice)) is suitable for speech recognition in the speech search function. Is set to display the level of the input voice. Of course, the display method may be a bar graph shape in which the display range (display height from the lowest position of the number of divisions) is continuously changed based on the loudness (intensity) of the sound. In addition, a display function indicating the maximum intensity (volume) in the bar graph display may be prepared temporarily (for example, about 1 second), a hold function for maintaining the lighting state without immediately disappearing, and the like.

図5(d)に示すように、第四パターン表示524は、録音した入力音声を解析し、文節区切りや単語認識、等の入力音声処理を実行している間あるいは入力音声処理により特定した番組を検索している間に表示されるもので、例えば第二パターン表示522で表示するマイクを模したマイクの表示の背景の色が順次変化する、あるいは変化する色について、例えば時計の12時間を示す30°単位で順次、その表示位置が変化する(回転しているように見える)、等の表示パターンにより、何らかの処理を実行中であることを表示する。   As shown in FIG. 5 (d), the fourth pattern display 524 analyzes the recorded input voice, and shows the program specified during the input voice processing such as phrase break and word recognition or by the input voice processing. For example, the background color of the display of the microphone imitating the microphone displayed in the second pattern display 522 changes sequentially, or for the changing color, for example, 12 hours of the clock The fact that some processing is being executed is displayed by a display pattern such that the display position sequentially changes (appears to rotate) in units of 30 °.

図5(e)に示すように、第五パターン表示525は、入力音声処理後の解析処理に基づいて特定した番組の検索結果に対応するテレビ装置1の動作(テレビ装置1の画面表示401のメッセージ表示欄431の2行目(対応状態/検索条件表示)欄433に、意図判別結果を受けたテレビ装置1の動作を表示している間、もしくは検索条件を特定できなかった場合、等の処理終了状態を示す。なお、表示の例としては、例えば検出できた検索条件を表示している場合、等において、背景色を青または緑、等のユーザーに疑問を持たせることが少ない、とされる色とし、検索条件を検出できなかった、もしくは入力音声を認識できなかった場合、等において、背景色を赤または黄、等のユーザーの注目を引き易いとされる色、とする、等の表示が好ましい。また、表示全体または背景を点滅する、等のさまざまな表示を用いることも可能である。   As shown in FIG. 5E, the fifth pattern display 525 displays the operation of the television device 1 corresponding to the search result of the program specified based on the analysis processing after the input sound processing (the screen display 401 of the television device 1). When the operation of the television apparatus 1 that has received the intention determination result is displayed in the second line (corresponding state / search condition display) field 433 of the message display field 431, or when the search condition cannot be specified, etc. As an example of display, for example, when a search condition that can be detected is displayed, the background color is blue or green, etc. If the search condition cannot be detected or the input voice cannot be recognized, the background color is set to a color that is likely to attract the user's attention, such as red or yellow, etc. Table of Is preferred. Further, flashes the entire display or the background, it is also possible to use various display and the like.

図6に、音声検索機能の準備完了(起動処理終了)時のテレビ装置の画面表示の表示例を示す。   FIG. 6 shows a display example of the screen display of the television apparatus when preparation for the voice search function is completed (activation process is completed).

音声検索機能の起動処理が終了すると、図4に示したステータスアイコン(マイクアイコン)421の表示がトーンアップ(明るさが設定されている通常の明るさに変更)される。このとき、図6が示すように、テレビ装置1における画面表示のステータスアイコン421の右側に、メッセージ表示欄431とヒント表示欄441を表示する。   When the activation process of the voice search function ends, the display of the status icon (microphone icon) 421 shown in FIG. 4 is toned up (changed to the normal brightness where the brightness is set). At this time, as shown in FIG. 6, a message display field 431 and a hint display field 441 are displayed on the right side of the status icon 421 of the screen display in the television apparatus 1.

メッセージ表示欄431は、以下に説明するが、入力音声処理により入力音声の内容を特定し、意図解析部58による意図判別データベースとの比較により意図を解析した意図判別結果を表示する「1行目(音声認識結果表示/検索条件表示)」表示欄432と意図判別結果を受けたテレビ装置1の動作を表示する「2行目(対応状態/検索条件表示)」表示欄433とを含む。   The message display field 431, which will be described below, specifies the content of the input voice by input voice processing, and displays the intention determination result obtained by analyzing the intention by comparison with the intention determination database by the intention analysis unit 58. (Speech recognition result display / search condition display) ”display column 432 and“ second line (corresponding state / search condition display) ”display column 433 for displaying the operation of the television apparatus 1 that has received the intention determination result.

「1行目」表示欄432は、ユーザーの声(発話)が、例えば[s a k k a g a m i t a i(さっかーがみたい)]である場合に、その発話を認識し、解析した結果として、ユーザーの発話内容である『サッカーが観たい』、と表示する。   The “first line” display field 432 recognizes and analyzes the utterance when the user's voice (utterance) is, for example, [s a k ka ga mi t a i (sakaka ga mi)]. As a result, the user's utterance content “I want to watch soccer” is displayed.

「2行目」表示欄433は、例えばユーザーの声(発話)を認識した結果として、ユーザーの発話内容を『サッカーが観たい』と判別した場合に、検索対象として、例えば[:サッカー]と表示する。このとき、検索範囲(検索エンジン)について、例えば[<ざんまいプレイ>から探します。]というようなメッセージを、「2行目」表示欄433に、併せて表示する。なお、<ざんまいプレイ>は、タイムシフト録画された番組を検索対象として、ユーザーが視聴または再生するであろう番組をユーザーに提示する機能である。従って、検索エンジンは、タイムシフト録画(記憶装置6)となる。   The “second line” display field 433 displays, for example, [: soccer] as a search target when it is determined that the user's utterance content is “I want to watch soccer” as a result of recognizing the user's voice (utterance), for example. indicate. At this time, the search range (search engine) is searched, for example, from [<Zanmai Play>. ] Is also displayed in the “second line” display field 433. Note that <Zanmai Play> is a function for presenting to the user a program that the user will watch or play, with a program subjected to time-shift recording as a search target. Therefore, the search engine is time-shift recording (storage device 6).

なお、1行目表示欄432及び2行目表示欄433が表示する表示(メッセージ)は、例えば音声合成によりテレビ装置1から音声で案内することも可能である(ユーザーにより設定可能である)。   The display (message) displayed in the first line display field 432 and the second line display field 433 can be guided by voice from the television apparatus 1 by voice synthesis, for example (can be set by the user).

図7に、図6により説明した<ざんまいプレイ>を検索対象として検索した番組を画面にする画面表示の一例を示す。すなわち、図7は、検索エンジンがタイムシフトマシンを検索対象として番組を検索した結果を表示する画面表示の一例を示す。   FIG. 7 shows an example of a screen display that displays a program searched for <Zanmai Play> described with reference to FIG. 6 as a search target. That is, FIG. 7 shows an example of a screen display on which the search engine displays a result of searching for a program with the time shift machine as a search target.

図7においては、画面表示701に、現在放送中の番組の映像が表示される。   In FIG. 7, an image of a currently broadcast program is displayed on the screen display 701.

なお、画面表示701の下部の所定の領域、例えば画面表示701の高さ方向で、1/4あるいは1/5程度の範囲の領域に、所定時間の間、タイムシフトマシンざんまいプレイ画面表示711が表示される。また、所定時間経過後、あるいはユーザーが任意の番組を選択した場合もしくはユーザーが表示の消去を指示入力した場合、タイムシフトマシンざんまいプレイ画面表示711が消去される。   It should be noted that the time shift machine Zanmai play screen display 711 is displayed for a predetermined time in a predetermined area below the screen display 701, for example, in a range of about 1/4 or 1/5 in the height direction of the screen display 701. Is displayed. Further, after a predetermined time has elapsed, or when the user selects an arbitrary program or when the user inputs an instruction to delete the display, the time shift machine Zanmai play screen display 711 is deleted.

タイムシフトマシンざんまいプレイ画面表示711は、現在表示している番組のジャンル及びユーザーに他のジャンルの表示の指示入力を促すジャンル表示領域712(712a−712c)、ジャンル表示領域712の現在番組ジャンル表示712aが表示するジャンルに関連した番組を表示する関連番組表示部713を含む。   The time shift machine Zanmai play screen display 711 displays the genre of the currently displayed program and the genre display area 712 (712a-712c) that prompts the user to input an instruction to display another genre, and the current program genre display in the genre display area 712. The related program display part 713 which displays the program relevant to the genre which 712a displays is included.

ジャンル表示領域712は、現在番組ジャンル表示(ジャンル表示バー)712a、ユーザーが選択可能な他のジャンルの1つの名称を表示する他候補ジャンル表示(他候補表示バー)712b及び他のカテゴリーの番組表示を表示させるための指示入力を促すカテゴリー表示(カテゴリー切り換えバー)712cを含む。なお、他候補ジャンル表示(他候補表示バー)712bは、ユーザーが音声(発話)により指示した番組ジャンルと関連の高い番組ジャンルが、他候補として表示される。すなわち、図7の例では、図6に示した音声検索機能において特定されたジャンルが[サッカー]であるから、スポーツのジャンルの番組が他候補として提示される。   The genre display area 712 includes a current program genre display (genre display bar) 712a, another candidate genre display (other candidate display bar) 712b that displays one name of another genre that can be selected by the user, and a program display of another category. A category display (category switching bar) 712c that prompts an instruction to display is displayed. In the other candidate genre display (other candidate display bar) 712b, a program genre highly related to the program genre designated by the user by voice (utterance) is displayed as another candidate. That is, in the example of FIG. 7, since the genre specified in the voice search function shown in FIG. 6 is [soccer], a program of a sports genre is presented as another candidate.

関連番組表示部713は、例えば6つの関連番組表示領域713−1〜713−6に、それぞれの番組のプレビュー映像が表示される。なお、関連番組表示部713は、関連する番組の数が表示領域の数よりも多い場合に、[→(右矢印/進む)]表示713f及び[←(左矢印/戻る)]表示713bを表示する。[→(右矢印/進む)]表示713fは、未表示の番組のプレビュー映像の表示を可能とするための指示入力(制御信号)を入力可能である。[←(左矢印/戻る)]表示713bは、[→(右矢印/進む)]表示713fにより、未表示の番組のプレビュー映像を表示した以降に、その番組のプレビュー映像の表示により非表示となった番組のプレビュー映像を表示させるための指示入力(制御信号)を入力可能である。   The related program display unit 713 displays preview videos of the respective programs in, for example, six related program display areas 713-1 to 713-6. The related program display unit 713 displays a [→ (right arrow / forward)] display 713f and a [← (left arrow / back)] display 713b when the number of related programs is larger than the number of display areas. To do. [→ (Right arrow / Advance)] display 713f can input an instruction input (control signal) for enabling display of a preview video of an undisplayed program. The [← (left arrow / return)] display 713b is hidden by the display of the preview video of the program after the preview video of the undisplayed program is displayed by the [→ (right arrow / forward)] display 713f. It is possible to input an instruction input (control signal) for displaying a preview video of the program that has become.

図8は、図6により説明した<ざんまいプレイ>を検索対象として番組を検索した結果において、図7に、プレビュー映像により表示される録画済番組を含む過去番組表の一例の画面表示の一例を示す。   FIG. 8 shows an example of a screen display of an example of a past program table including a recorded program displayed by a preview video in FIG. 7 as a result of searching for a program using <Zanmai Play> described with reference to FIG. Show.

図8が示す過去番組表から、図7の関連番組表示部713が表示した関連番組表示領域713−1〜713−6に表示される個々の番組811−1〜811−6を、番組表形式(タイムテーブル)表示により、一覧で観ることができる。   From the past program table shown in FIG. 8, individual programs 811-1 to 811-6 displayed in the related program display areas 713-1 to 713-6 displayed by the related program display unit 713 in FIG. (Timetable) display allows viewing in a list.

図9は、図6により説明した<ざんまいプレイ>を検索対象として番組を検索した結果において音声検索機能の入力音声処理により特定された番組が検索できなかった場合に、次の検索エンジンにより検索する(検索対象を保持する記憶装置を録画予約により予約録画された番組を保持する記憶装置67に切り換える)場合の画面表示の一例を示す。   FIG. 9 shows a search by the next search engine when a program specified by the input voice processing of the voice search function cannot be searched as a result of searching for a program using <Zanmai Play> described with reference to FIG. An example of a screen display in the case of (switching the storage device holding the search target to the storage device 67 holding the program reserved and recorded by the recording reservation) is shown.

図10は、図9により説明した<録画番組一覧>を検索対象として番組を検索した結果において特定される録画済番組の一覧表示(録画番組一覧)の一例を示す。   FIG. 10 shows an example of a list display (recorded program list) of recorded programs specified in the result of searching for a program with the <recorded program list> described with reference to FIG.

図10が示す録画番組一覧画面表示1001は、録画済番組表示欄1021〜1030(表示例は、6つの番組が録画されていることを示し、表示欄1021〜1026に録画されている番組が表示されている)と、表示欄1021〜1030が表示する録画済番組のうち、現在フォーカスがあてられている番組のプレビュー映像を表示するプレビュー表示領域1011と、プレビュー表示されている番組の情報、例えばその番組を放送した放送局名(チャンネル名)、等を表示する。   The recorded program list screen display 1001 shown in FIG. 10 includes recorded program display columns 1021 to 1030 (the display example indicates that six programs are recorded, and the recorded programs are displayed in the display columns 1021 to 1026. Among the recorded programs displayed in the display columns 1021 to 1030, a preview display area 1011 for displaying a preview video of the currently focused program, and information on the program displayed for preview, for example, The name of the broadcasting station (channel name) that broadcasts the program is displayed.

図10が示す録画番組一覧画面表示1001においては、録画済番組表示欄1021〜1030のうちの録画されている番組が表示されている表示欄にフォーカスが当てられる(リモコン端末71により任意の表示欄の番組を選ぶ)ことで、その都度、プレビュー表示領域1011が表示するプレビュー映像が、対応する録画済番組のそれぞれにおいて用意されているプレビュー映像に切り換えられる。また、併せて、チャンネル名表示、等も更新される。   In the recorded program list screen display 1001 shown in FIG. 10, the display column in which recorded programs are displayed in the recorded program display columns 1021 to 1030 is focused (an arbitrary display column is displayed by the remote control terminal 71). Each time, the preview video displayed in the preview display area 1011 is switched to the preview video prepared in each of the corresponding recorded programs. In addition, the channel name display and the like are also updated.

なお、図9に一例を示した次の検索エンジンにより検索する場合においては、図11に一例を示すように、例えば入力音声処理により検索エンジンが特定できた場合には、その検索エンジンを利用するものとする。例えば、特定できた文字列が<YouTube>のように、ネットワークNTW上のサービスサーバーが保持するコンテンツ(番組)を意図する場合は、対応する検索エンジンを利用する。また、特定できた文字列が<明日の午後9時>のように、録画予約を意図する場合には、検索エンジンは、EPG(Electric Program Guide,電子番組表)に特定される。   In the case of searching by the next search engine shown as an example in FIG. 9, as shown in an example in FIG. 11, when a search engine can be specified by input speech processing, for example, the search engine is used. Shall. For example, when the specified character string is intended as content (program) held by a service server on the network NTW, such as <YouTube>, a corresponding search engine is used. When the specified character string is intended for a recording reservation such as <9:00 pm tomorrow>, the search engine is specified as an EPG (Electric Program Guide).

すなわち、図11に一例を示すが、検索エンジンの切り換えは、音声検索機能起動[01]に引き続く入力音声処理及び意図理解解析による検索対象特定[02]、特定された検索対象について、(検索対象は)外部サーバーか[03]、(検索対象は)録画予約か[04]、(検索対象は)タイムシフトマシンか[05]、(検索対象は)録画番組一覧(録画リスト)か[06]、(検索対象は)おすすめ検索か[07]、(検索対象は)シーン検索か[08]、等に従う。   That is, as shown in FIG. 11, the search engine is switched according to input speech processing subsequent to the voice search function activation [01] and search target specification [02] by intention understanding analysis, A) External server [03], (search target) recording reservation [04], (search target) time shift machine [05], (search target) recorded program list (recording list) [06] , (Search target) is recommended search [07], (search target) is scene search [08], etc.

従って、検索対象が外部サーバーである場合[03−YES]、コンテンツサーバー9が検索エンジンとなる[101]。また、検索対象が録画予約である場合[04−YES]、EPGデータ(例えば、主制御ブロック51のCPU52のファームウェアが保持する)あるいはNVMが保持する録画予約リストが検索エンジンとなる[106]。同様に、検索対象がタイムシフトマシンである場合[05−YES]、記憶装置6(タイムシフト録画記憶装置)が検索エンジンとなる[105]。さらに、検索対象が録画番組一覧(録画リスト)である場合[06−YES]、記憶装置67(HDD)が検索エンジンとなる[107]。なお、検索対象がおすすめである場合[07−YES]、サービスサーバー8が検索エンジンとなる[102]。同様に、検索対象がシーンである場合[08−YES]、サービスサーバー7(データベース提供会社)が検索エンジンとなる[103]。なお、検索エンジンの切り換えの判定は、図11が示す順に制限されるものではない。また、外部サーバーを検索対象とする検索エンジンの切り換えの判定は、個々の切り換えの判定の間の全ての判定のタイミングに実行されることが好ましい。   Accordingly, when the search target is an external server [03-YES], the content server 9 becomes the search engine [101]. When the search target is a recording reservation [04-YES], EPG data (for example, held by the firmware of the CPU 52 of the main control block 51) or a recording reservation list held by the NVM becomes the search engine [106]. Similarly, when the search target is a time shift machine [05-YES], the storage device 6 (time shift recording storage device) becomes the search engine [105]. Further, when the search target is a recorded program list (recording list) [06-YES], the storage device 67 (HDD) becomes the search engine [107]. If the search target is recommended [07-YES], the service server 8 becomes the search engine [102]. Similarly, when the search target is a scene [08-YES], the service server 7 (database provider) becomes the search engine [103]. Note that the search engine switching determination is not limited to the order shown in FIG. In addition, it is preferable that the determination of switching the search engine with the external server as a search target is executed at the timing of all the determinations between the individual switching determinations.

すなわち、検索エンジンとしては、
未来番組表(EPG/録画予約)
ざんまい(タイムシフト録画)
過去番組表(タイムシフト録画)
録画リスト(録画番組一覧/通常録画/自動録画)
シーン検索(サービスサーバー/タイムシフト録画/通常録画/自動録画)
おすすめ検索(サービスサーバー/タイムシフト録画/通常録画/自動録画)
YouTube(外部サーバー(コンテンツサーバー))
等、である。
In other words, as a search engine,
Future program guide (EPG / recording reservation)
Zanmai (time shift recording)
Past program guide (time-shift recording)
Recording list (recorded program list / normal recording / automatic recording)
Scene search (service server / time shift recording / normal recording / automatic recording)
Recommended search (service server / time shift recording / normal recording / automatic recording)
Youtube (external server (content server))
Etc.

なお、シーン検索については、データベース提供会社のサービスサーバー7が提供する属性(シーン属性/分類)に従うが、例えば音声シーン、すなわち「トーク(会話)」や「音楽(歌唱)」、あるいは「コマーシャル(本編に対する識別例)」、等を、検索条件として利用できる。   The scene search follows the attribute (scene attribute / classification) provided by the service server 7 of the database provider. For example, a voice scene, that is, “talk (conversation)”, “music (singing)”, or “commercial ( Identification examples for the main part) ”, etc. can be used as search conditions.

また、おすすめ検索については、記録装置67に録画されている番組のうちのサービスサーバー8が提供するユーザーの嗜好に沿ったおすすめ番組が検索対象となる。   As for the recommended search, a recommended program that matches the user's preference provided by the service server 8 among the programs recorded in the recording device 67 is a search target.

なお、検索条件がそれぞれの検索エンジンで異なる場合、検索エンジンを切り換えたときに、適切な検索条件に変更することが必要となる。   If the search conditions are different for each search engine, it is necessary to change to an appropriate search condition when the search engine is switched.

例えば、番組表(EPG)においては、[水]、[金]のように、曜日単位で検索条件を指定できるが、他の検索エンジンに移行する(切り換える)場合には、[水〜金]、という形式に丸めることが好ましい。   For example, in the program guide (EPG), search conditions can be specified in units of days of the week, such as [Wednesday] and [Friday], but when moving (switching) to another search engine, [Wednesday to Friday] It is preferable to round to the form of.

図12は、図6により概略を説明した音声検索機能の起動処理終了後の入力音声処理において、ヒント表示欄441が表示する表示(ヒント)に対するユーザーからの発話を入力音声処理する一例を示す。なお、図12が示す例は、<絞り込み検索>と称される。   FIG. 12 shows an example of the input voice processing of the utterance from the user for the display (hint) displayed in the hint display field 441 in the input voice processing after the end of the voice search function starting process outlined in FIG. The example shown in FIG. 12 is referred to as <refine search>.

図7及び図9ならびに図11により、入力音声処理において特定された番組が検索できなかった場合に、次の検索エンジンにより検索する(検索対象を保持する記憶装置を別の記憶装置に切り換える)ことを説明したが、検索条件の絞り込みにより、該当する番組が検索できる場合がある。   7, 9, and 11, when the program specified in the input voice processing cannot be searched, the search is performed by the next search engine (the storage device holding the search target is switched to another storage device). However, there are cases where the corresponding program can be searched by narrowing down the search conditions.

図12に一例を示すが、画像表示1201が表示するヒント表示欄441もしくは「2行目」表示欄433に、例えば『さらに条件を加えたい場合は、「○○で絞り込み」とお話ください<意図理解の結果を受けたテレビ装置1の動作の表示(TVのアクション)』、等を表示する。なお、テレビ装置1の動作としては、音声合成により音声で案内することも可能である。   FIG. 12 shows an example. For example, in the hint display field 441 or the “second line” display field 433 displayed by the image display 1201, say “If you want to add more conditions, say“ Filter by XX ”” <Intent The display of the operation of the television device 1 that has received the result of understanding (TV action) ”is displayed. In addition, as operation | movement of the television apparatus 1, it is also possible to guide by voice by voice synthesis.

ユーザーが、新たにキーワードやジャンル、あるいは人名、等を発話(発言)することにより、テレビ装置1は、入力音声処理により入力音声の内容を特定し、意図判別データベースとの比較により意図を解析した意図判別結果を、表示欄432に表示する。   When the user utters (speaks) a keyword, a genre, or a person's name, the television apparatus 1 identifies the content of the input voice by input voice processing, and analyzes the intention by comparison with an intention determination database. The intention determination result is displayed in the display field 432.

なお、<絞り込み検索>に利用可能なキーワードとしては、例えば番組名や、出演者名あるいはジャンル、等がある。但し、ジャンルについては、社団法人 電波産業会(ARIB:Association of Radio Industries and Businesses)が規定する放送分類(大分類/中分類)に従うものとして、例えばニュース(報道)、スポーツ、ドラマ、音楽、バラエティ、映画あるいはアニメ(特撮)、等を指定できる。一方、ジャンルにおいては、「スポーツ」と「ニュース」と「スポーツニュース」は、意図判別データベースとの比較により、自動的に区別される。   Note that keywords that can be used for <refined search> include, for example, program names, performer names, or genres. However, the genre is based on the broadcasting classification (major classification / medium classification) prescribed by the Association of Radio Industries and Businesses (ARIB). For example, news (reporting), sports, drama, music, variety , Movie or animation (special effects), etc. can be specified. On the other hand, in the genre, “sports”, “news”, and “sports news” are automatically distinguished by comparison with the intention determination database.

また、キーワードに類似する<絞り込み検索>に利用可能な情報として、例えば「番組記号」がある。「番組記号」は、EPGデータから取得可能な、[新]…新番組、[再]…再放送及び[終]…最終回、について、検索に用いることができる。なお、その他に、放送局名や放送種別(地上波/衛星放送、等)、日付(昨日、今週、月曜日、等)が、利用可能である。但し、曜日については、EPGや内蔵するカレンダー等を参照して、日付に変換して利用する。また、放送局名や放送種別、については、略称やコールサイン及びその短縮形(例えばCX、EX、等の2レターコード)、BS、CS、等についても判別可能とする。   In addition, as information that can be used for <refined search> similar to a keyword, for example, there is “program symbol”. The “program symbol” can be used for searching for [new]... New program, [re]... Rebroadcast and [end]. In addition, the broadcast station name, broadcast type (terrestrial / satellite broadcast, etc.) and date (yesterday, this week, Monday, etc.) can be used. However, the day of the week is converted into a date and used by referring to an EPG or a built-in calendar. As for the broadcasting station name and broadcasting type, it is also possible to distinguish abbreviations, call signs and their abbreviated forms (for example, two letter codes such as CX, EX, etc.), BS, CS, and the like.

なお、入力音声処理により特定する文字列や単語については、同音で異なる表示となる名称、等が存在する。このため、<検索し直し/絞り込み>機能として、以下に説明する動作が可能である。   For character strings and words specified by input voice processing, there are names that are displayed differently with the same sound. For this reason, the operation described below is possible as the <re-search / narrow down> function.

[絞り込み/検索し直し]
意図を理解し再度検索を行う
絞り込み
絞り込みを意図した特定の発話があった場合に絞り込む
発話例:「Jリーグ(日本のプロサッカー)で絞り込んで」
「(プロ野球の)○×□だけにして」
等、の単語や文字列が利用可能である。その際に、検索エンジンを切換えることを示唆する単語や文字列を特定できた場合、以下に説明する<検索エンジン切り換え>動作が可能である。
[Refine / Research]
Understand the intention and search again
Refine
Filter when there is a specific utterance intended to be filtered
Speaking example: “Narrow down in the J League (Japanese professional soccer)”
“(Professional baseball) ○ × □ only”
Etc., words and character strings can be used. At that time, if a word or a character string suggesting that the search engine is switched can be specified, a <search engine switching> operation described below can be performed.

[検索エンジン切換]
発話内容に別エンジンが含まれる場合に検索エンジンを切換える
発話例:「シーン検索で検索し直して」
等、の単語や文字列が利用可能である。
[Search engine switching]
Switch search engine when utterance includes another engine
Example of utterance: “Search again by scene search”
Etc., words and character strings can be used.

また、<検索エンジン切り換え>は、認識したキーワードに従うことができる。
例えば、「ざんまい」、「シーン」、「おすすめ(自動録画)」、「番組情報(現在受信中/現在再生中)」、「録画番組(録画してある/昨日(今週)とった(はず))/過去番組表」、「録画予約(番組表で…)/EPGで…」、等の単語や文字列を特定できた場合には、特定できた単語や文字列から特定可能な検索エンジンに切り換えることが好ましい。
<Search engine switching> can follow the recognized keyword.
For example, "Zanmai", "Scene", "Recommendation (automatic recording)", "Program information (currently receiving / currently playing)", "Recorded program (recorded / yesterday (this week)) (should be) ) / Past program guide ”,“ recording reservation (with program guide ...) / EPG ... ”, and the like, a search engine that can be specified from the specified word or character string. It is preferable to switch.

また、入力音声処理により特定する文字列や単語としてシーン検索を表す特徴的な単語を特定できた場合には、シーン検索を起動する(検索エンジンを切り換える)ものとする。   In addition, when a characteristic word representing a scene search can be specified as a character string or word specified by the input voice processing, the scene search is activated (switching the search engine).

例えば、「お天気コーナー」 → (“コーナー”)
「ゴールの場面」 → (“場面”)
「○□が出ているところ」 → (“〜ているところ”)
等の単語を特定できた場合は、シーン検索に移行する(起動する)。
For example, “Weather Corner” → (“Corner”)
“Scene of the goal” → (“Scene”)
“A place where ○ □ comes out” → (“A place where” is)
If a word such as "" can be specified, the process proceeds to (searches for) a scene search.

また、同音候補(同音で異なる表示となる名称、等)の選択を促す例としては、同音のキーワードの候補が複数ある場合に候補を表示し、ユーザーによる選択(別候補の特定)を行うことが好ましい。なお、ユーザーの特定の発話(発言)に基づいて同音候補の選択を実行することも可能である。例えば、「字が違う」、「違うよ」、「別の表示」、等の単語や文字列を特定できた場合には、[検索し直し]を実行することが好ましい。   In addition, as an example of prompting the selection of the same sound candidates (names that are displayed differently in the same sound, etc.), when there are multiple candidates for the same sound keyword, the candidates are displayed and selected by the user (specification of another candidate). Is preferred. Note that it is also possible to execute selection of the same sound candidate based on a user's specific utterance (utterance). For example, when a word or a character string such as “characters are different”, “different”, “different display”, or the like can be specified, it is preferable to execute [Research].

図13は、図6により説明した音声検索機能の入力音声処理において、検索エンジン、すなわち検索対象となるコンテンツが記憶されている記憶装置もしくはサービスサーバーが特定できる場合の画面表示の表示例を示す。   FIG. 13 shows a display example of a screen display when a search engine, that is, a storage device or a service server storing content to be searched can be specified in the input voice processing of the voice search function described with reference to FIG.

例えば、ユーザーの発話(声)が特定する検索対象が、例えば[y u c y u b u(ゆーちゅーぶ)]である場合、「1行目」表示欄432は、その発話を認識し、解析した結果として、ユーザーの発話内容である『YouTube』、と表示する。   For example, when the search target specified by the user's utterance (voice) is, for example, [y u cy u bu], the “first line” display field 432 recognizes the utterance. As a result of the analysis, “Youtube” which is the content of the user's utterance is displayed.

この場合、「2行目」表示欄433は、検索範囲(検索エンジン)について、例えば[<YouTube>に移行します。]というようなメッセージを表示する。   In this case, the “second line” display field 433 moves to, for example, [<Youtube] for the search range (search engine). ] Is displayed.

以下、検索対象がネットワークNTW上のコンテンツサーバー(サービスサーバー)9に切り換えられる。   Thereafter, the search target is switched to the content server (service server) 9 on the network NTW.

なお、<YouTube>での検索においては、キーワードの定義において、図6及び図9により説明した入力音声処理により特定する文節区切りや単語認識、等の結果として得られる文字列(発話内容)から、例えば「見たい」や「探して」あるいは「の」などの余分な言葉を削除して区切り、区切った言葉を、「“」と「,」と「”」で結合し、単一のキーワードとして検索対象とすることが好ましい。   In the search by <YouTube>, in the keyword definition, from the character string (utterance content) obtained as a result of the phrase break and word recognition specified by the input speech processing described with reference to FIGS. For example, delete extra words such as “I want to see”, “Find”, or “No”, separate them, and combine the separated words with “”, “,” and “” ”as a single keyword It is preferable to search.

例えば、「AZBの東京ドームのコンサートが見たい」 → “AZB,東京ドーム,コンサート”として検索する。なお、キーワードが空(未決定)の場合は、メッセージ表示欄(「1行目」表示欄432)において、『キーワードを入力してください』等の文字列を表示してキーワードの入力を促す。   For example, “I would like to see the concert of AZB Tokyo Dome” → “AZB, Tokyo Dome, Concert”. If the keyword is empty (undecided), a character string such as “Please enter a keyword” is displayed in the message display field (“first line” display field 432) to prompt the keyword.

図14は、音声検索機能を起動したユーザーを支援する例を示す。   FIG. 14 shows an example of supporting a user who has activated the voice search function.

ユーザーが音声検索機能を起動したあと、一定期間の間、例えば5秒の間、発話がない(無音を検出した)場合、別ウィンドウ451に、ユーザーを支援するメッセージを表示して、音声検索機能を用いる番組検索を支援することができる。あるいは、ヒント表示欄441に、利用方法を説明するメッセージを表示して、音声検索機能を用いる番組検索を支援してもよい。   When the user activates the voice search function, if there is no utterance (detected silence) for a certain period of time, for example, 5 seconds, a message supporting the user is displayed in another window 451, and the voice search function It is possible to support program search using. Alternatively, a message explaining the usage method may be displayed in the hint display field 441 to support program search using the voice search function.

例えば、音声検索機能の起動完了から5秒経過後に、
○○が見たい。
○○のシーンが見たい。
○○を予約したい。
等、のメッセージを、別ウィンドウ451に表示することで、ユーザーに音声検索機能の利用開始を促すことができる。なお、表示するメッセージは、音声検索機能の動作状態と関連付けて、例えば文字入力画面表示中においては、「入力したい文字列を話してください。」あるいは検索結果表示中においては、「絞り込みたい場合は「○○で絞り込み」とお話しください。」等、その時点の動作に関連のある文言(文字列)であることが好ましい。
For example, after 5 seconds have passed since the start of the voice search function,
I want to see ○○.
I want to see the scene of ○○.
I want to book ○○.
And the like are displayed in another window 451, and the user can be prompted to start using the voice search function. The message to be displayed is related to the operation status of the voice search function. For example, when the character input screen is displayed, “Please speak the character string you want to input.” Or when the search result is displayed, “If you want to narrow down Please say “Filter by ○○”. It is preferable that the wording is related to the operation at that time (character string).

なお、キーワードを定義する際においては、入力音声処理により特定する文節区切りや単語認識、等の結果として得られる文字列(発話内容)から、例えば「見たい」や「探して」あるいは「の」等の言葉を削除して区切り、区切った言葉を「“」と「,」と「”」で結合して単一のキーワードとして検索対象とすることは、任意の検索エンジンを用いる検索にも適用可能である。   When defining a keyword, for example, “I want to see”, “Look for” or “No” from a character string (utterance content) obtained as a result of phrase breaks or word recognition specified by input speech processing. Eliminating and separating words such as “”, “,”, and “” ”to make the search target as a single keyword also applies to searches using any search engine Is possible.

図15は、音声検索機能を起動したユーザーを支援する別の例を示す。   FIG. 15 shows another example of supporting a user who has activated the voice search function.

ユーザーが音声検索機能を起動したあと、一定期間、発話がない(無音を検出した)場合、ヒント表示欄441に、利用方法を説明するメッセージを表示して、音声検索機能を用いる番組検索を支援することができる。   When the user activates the voice search function, if there is no utterance (silence is detected) for a certain period of time, a message explaining how to use is displayed in the hint display field 441 to support program search using the voice search function can do.

例えば、音声検索機能の起動処理が完了し、録音可能状態となった場合に、
「入力したい文字列を話してください。」
「今日のおすすめを紹介しますか?」
等、ユーザーが何を話せば良いかのを着想可能なさまざまなヒントメッセージを表示することで、ユーザーに、音声検索機能の効果的な利用を促すことができる。
For example, when the voice search function startup process is completed and recording is possible,
“Speak the text you want to enter.”
“Would you like to introduce today ’s recommendations?”
By displaying various hint messages that can be used to conceive what the user should say, the user can be encouraged to use the voice search function effectively.

なお、ヒントメッセージは、テレビ装置1のステータス(動作状態)によって出しわけるものとする。また、ヒントメッセージは、例えば3秒ごとに、複数種類のメッセージをシャッフルして表示することが好ましい。   Note that the hint message is divided according to the status (operating state) of the television apparatus 1. The hint message is preferably displayed by shuffling a plurality of types of messages, for example, every 3 seconds.

なお、ヒントメッセージは、音声合成によりテレビ装置1から音声で案内することも可能である。   Note that the hint message can be guided by voice from the television apparatus 1 by voice synthesis.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…テレビジョン受信装置(映像再生装置/第一の電子機器)、2…レコーダー装置(映像記録装置/第二の電子機器)、3…ネットワークコントローラー、6…タイムシフト記憶装置、7−9…サービスサーバー、51…主制御ブロック、55…意図判別データベース(不揮発性メモリ)、56…音声検索制御部、57…入力音声処理部、58…意図解析部、59…意図判別データベース、67…記憶装置、71…リモコン端末(リモートコントローラ)。   DESCRIPTION OF SYMBOLS 1 ... Television receiver (video reproduction device / first electronic device), 2 ... Recorder device (video recording device / second electronic device), 3 ... Network controller, 6 ... Time shift storage device, 7-9 ... Service server 51 ... Main control block 55 ... Intention discrimination database (non-volatile memory) 56 ... Voice search control unit 57 ... Input voice processing unit 58 ... Intention analysis unit 59 ... Intention discrimination database 67 ... Storage device 71 ... Remote control terminal (remote controller).

Claims (11)

入力音声に基づいて検索対象の検索条件を特定する入力音声処理手段と、
前記入力音声処理手段が特定した前記検索条件に基づいて、前記検索対象の検索先を切り換える検索制御手段と、
を具備する電子機器。
An input voice processing means for specifying a search condition to be searched based on the input voice;
Search control means for switching a search destination of the search target based on the search condition specified by the input voice processing means;
An electronic device comprising:
前記入力音声処理手段が前記検索条件を特定するための解析手段をさらに具備する請求項1の電子機器。   The electronic apparatus according to claim 1, further comprising an analysis unit for the input voice processing unit to specify the search condition. 前記解析手段は、前記入力音声から前記入力音声処理手段が特定した文字列または単語から前記検索制御手段が前記検索対象の検索先を切り換え可能なキーワードや検索先を特定可能な文字列または単語を判定する請求項2の電子機器。   The analysis unit is configured to select a keyword or a character string or a word from which the search control unit can switch a search destination to be searched or a search destination from a character string or a word specified by the input voice processing unit from the input voice. The electronic device according to claim 2 for determination. 前記解析手段は、前記入力音声から前記入力音声処理手段が特定した文字列または単語が、前記検索対象の検索先として外部サーバーを特定可能な文字列または単語であることを判定する請求項2の電子機器。   The analysis unit determines that the character string or word specified by the input voice processing unit from the input voice is a character string or word that can specify an external server as a search destination of the search target. Electronics. 前記切り換えた前記検索対象の検索先から前記検索条件に基づいて検索する検索手段をさらに具備する請求項1の電子機器。   The electronic device according to claim 1, further comprising a search unit that searches based on the search condition from the switched search destination. 前記検索制御手段により切り換えられる前記検索対象の検索先に対応した画像を表示可能な表示信号を出力する表示制御手段をさらに具備する請求項1の電子機器。   2. The electronic apparatus according to claim 1, further comprising display control means for outputting a display signal capable of displaying an image corresponding to the search destination of the search target switched by the search control means. 前記入力音声処理手段が前記検索条件を特定するための解析手段をさらに具備する請求項5または6の電子機器。   The electronic apparatus according to claim 5 or 6, further comprising an analysis unit for the input voice processing unit to specify the search condition. 前記解析手段は、前記入力音声から前記入力音声処理手段が特定した文字列または単語から前記検索制御手段が前記検索対象の検索先を切り換え可能なキーワードや検索先を特定可能な文字列または単語を判定する請求項7の電子機器。   The analysis unit is configured to select a keyword or a character string or a word from which the search control unit can switch a search destination to be searched or a search destination from a character string or a word specified by the input voice processing unit from the input voice. The electronic device according to claim 7 for determination. 前記解析手段は、前記入力音声から前記入力音声処理手段が特定した文字列または単語が、前記検索対象の検索先として外部サーバーを特定可能な文字列または単語であることを判定する請求項7の電子機器。   The analysis unit determines that the character string or word specified by the input voice processing unit from the input voice is a character string or word that can specify an external server as a search destination of the search target. Electronics. 前記表示制御手段が出力する前記表示信号に対応する画像を表示する表示手段をさらに具備する請求項5−9の何れか1の電子機器。   The electronic apparatus according to claim 5, further comprising display means for displaying an image corresponding to the display signal output by the display control means. 入力音声に基づいて検索対象の検索条件を特定し、
入力音声処理部が特定した検索条件に基づいて、検索対象の検索先を切り換える
電子機器の制御方法。
Identify search criteria based on the input voice,
A control method for an electronic device that switches a search target to be searched based on a search condition specified by an input voice processing unit.
JP2014192636A 2014-09-22 2014-09-22 Electronic apparatus and control method thereof Pending JP2016062560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014192636A JP2016062560A (en) 2014-09-22 2014-09-22 Electronic apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192636A JP2016062560A (en) 2014-09-22 2014-09-22 Electronic apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2016062560A true JP2016062560A (en) 2016-04-25

Family

ID=55796093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192636A Pending JP2016062560A (en) 2014-09-22 2014-09-22 Electronic apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2016062560A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018056105A1 (en) * 2016-09-26 2018-03-29 ソニー株式会社 Information processing apparatus, information processing method, program, and information processing system
JP2021012545A (en) * 2019-07-05 2021-02-04 東芝映像ソリューション株式会社 Electronic apparatus, program and selection method of search service
JP2022034708A (en) * 2020-08-19 2022-03-04 Tvs Regza株式会社 Receiving device and program of receiving device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024250A (en) * 2000-07-04 2002-01-25 Keiichi Higuchi Information providing service method, and information provision supplying device and information provision receiving device therefor
JP2007018068A (en) * 2005-07-05 2007-01-25 Toshiba Corp Device, method, and program for retrieving information
JP2010170191A (en) * 2009-01-20 2010-08-05 Yahoo Japan Corp Search method based on meta-information of tv program, search system, and search term generator
JP2012123492A (en) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd Information providing system and information providing device
JP2013251612A (en) * 2012-05-30 2013-12-12 Toshiba Corp Reproduction apparatus and reproduction method
US20140053209A1 (en) * 2012-08-16 2014-02-20 Nuance Communications, Inc. User interface for entertainment systems
JP2014109897A (en) * 2012-11-30 2014-06-12 Toshiba Corp Information processing device and content retrieval method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024250A (en) * 2000-07-04 2002-01-25 Keiichi Higuchi Information providing service method, and information provision supplying device and information provision receiving device therefor
JP2007018068A (en) * 2005-07-05 2007-01-25 Toshiba Corp Device, method, and program for retrieving information
JP2010170191A (en) * 2009-01-20 2010-08-05 Yahoo Japan Corp Search method based on meta-information of tv program, search system, and search term generator
JP2012123492A (en) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd Information providing system and information providing device
JP2013251612A (en) * 2012-05-30 2013-12-12 Toshiba Corp Reproduction apparatus and reproduction method
US20140053209A1 (en) * 2012-08-16 2014-02-20 Nuance Communications, Inc. User interface for entertainment systems
JP2014109897A (en) * 2012-11-30 2014-06-12 Toshiba Corp Information processing device and content retrieval method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018056105A1 (en) * 2016-09-26 2018-03-29 ソニー株式会社 Information processing apparatus, information processing method, program, and information processing system
JPWO2018056105A1 (en) * 2016-09-26 2019-07-04 ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
US10911831B2 (en) 2016-09-26 2021-02-02 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
JP2022003825A (en) * 2016-09-26 2022-01-11 ソニーグループ株式会社 Information processing apparatus, information processing method, and program
JP7280328B2 (en) 2016-09-26 2023-05-23 ソニーグループ株式会社 Information processing device, information processing method, program
JP2021012545A (en) * 2019-07-05 2021-02-04 東芝映像ソリューション株式会社 Electronic apparatus, program and selection method of search service
JP7227093B2 (en) 2019-07-05 2023-02-21 Tvs Regza株式会社 How to select electronic devices, programs and search services
JP2022034708A (en) * 2020-08-19 2022-03-04 Tvs Regza株式会社 Receiving device and program of receiving device
JP7316983B2 (en) 2020-08-19 2023-07-28 Tvs Regza株式会社 Receiving device and receiving device program

Similar Documents

Publication Publication Date Title
KR100754676B1 (en) Apparatus and method for managing electronic program guide data in digital broadcasting reception terminal
JP2009540668A (en) System and method for applying closed captions
CN102668580A (en) Display device, program and computer readable storage medium on which said program is stored
JP2010124319A (en) Event-calendar display apparatus, event-calendar display method, event-calendar display program, and event-information extraction apparatus
TWI587253B (en) Method and apparatus for providing notice of availability of audio description
JP2016062560A (en) Electronic apparatus and control method thereof
JP5023803B2 (en) Information processing apparatus, information processing method, and program
JP2008193295A (en) Program extracting method and device
JPWO2008018479A1 (en) Reception device, display control method, and program
US10911831B2 (en) Information processing apparatus, information processing method, program, and information processing system
KR20170097375A (en) Display apparatus and control method thereof
US8914364B2 (en) Content notifying device, notifying method, and program
JP2010273247A (en) Data transmission/reception system
US20090162035A1 (en) Playback method and playback system of contents
US20060085371A1 (en) System and method for associating different types of media content
KR20150072982A (en) Video display device and operating method thereof
JP6733006B2 (en) Electronic device and video reproduction method
JP2011211571A (en) Video apparatus
KR20150065490A (en) Issue-watching multi-view system
KR100737868B1 (en) Method of navigating channel and digital television thereof
JP2006094203A (en) Video-recording/reproducing apparatus
JP6966380B2 (en) Electronics and methods
JP6567342B2 (en) Electronic device and search method
KR20060125004A (en) Method and apparatus for editing channel number in classified by program category
JP6389734B2 (en) Electronic device and storage / reproduction method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20161019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180911