JP2016012894A - Electronic apparatus, and control method and control program of the same - Google Patents

Electronic apparatus, and control method and control program of the same Download PDF

Info

Publication number
JP2016012894A
JP2016012894A JP2014134949A JP2014134949A JP2016012894A JP 2016012894 A JP2016012894 A JP 2016012894A JP 2014134949 A JP2014134949 A JP 2014134949A JP 2014134949 A JP2014134949 A JP 2014134949A JP 2016012894 A JP2016012894 A JP 2016012894A
Authority
JP
Japan
Prior art keywords
keyword
keywords
user
content
viewed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014134949A
Other languages
Japanese (ja)
Inventor
山下 道生
Michio Yamashita
道生 山下
智貴 中川
Tomoki Nakagawa
智貴 中川
博明 伊藤
Hiroaki Ito
博明 伊藤
恵 宮崎
Megumi Miyazaki
恵 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Original Assignee
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Lifestyle Products and Services Corp filed Critical Toshiba Corp
Priority to JP2014134949A priority Critical patent/JP2016012894A/en
Publication of JP2016012894A publication Critical patent/JP2016012894A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable retrieval reflecting preference of a user.SOLUTION: An extraction section of an electronic apparatus extracts a plurality of first keywords presented to a user from a plurality of keywords corresponding to a first portion of content which is being viewed by the user at first time by using information corresponding to the content which the user views or records, and a presentation section presents the plurality of first keywords to the user so that they can be selected. A processing section performs processing to retrieve information related to the selected first keyword by using the first keyword selected by the user.

Description

本発明の実施形態は、電子機器、電子機器の制御方法及び制御プログラムに関する。   Embodiments described herein relate generally to an electronic device, a control method for an electronic device, and a control program.

近年、放送の多チャンネル化が進み、ユーザの番組視聴の選択肢が拡がっている。
一方、ユーザが指定したチャンネルや時間帯に含まれる全番組を自動的に録画する機能を搭載した、映像情報記録再生装置等の電子機器が知られている。
In recent years, the number of broadcasting channels has increased, and the options for viewing programs by users have expanded.
On the other hand, an electronic device such as a video information recording / reproducing apparatus equipped with a function of automatically recording all programs included in a channel and time zone designated by a user is known.

特開2009−118168号公報JP 2009-118168 A 特開2009−71623号公報JP 2009-71623 A 特開2009−38502号公報JP 2009-38502 A

上述した電子機器においては、多数の番組が録画されることとなるため、ユーザが自己の好みに応じた番組あるいは番組に含まれるシーンを探す必要が生じることとなるが、必ずしもユーザの好みを反映した番組あるいはシーンを検索できるとは限らなかった。   In the electronic device described above, since a large number of programs are recorded, it becomes necessary for the user to search for a program or a scene included in the program according to his / her preference, but it does not necessarily reflect the user's preference. It was not always possible to search for the program or scene that was played.

本実施形態は、上記に鑑みてなされたものであって、ユーザの好みを反映した検索が可能な電子機器、電子機器の制御方法及び制御プログラムを提供することを目的としている。   The present embodiment has been made in view of the above, and an object thereof is to provide an electronic device, a control method for the electronic device, and a control program capable of performing a search reflecting user preferences.

実施形態の電子機器の抽出部は、ユーザが第1時間に視聴中のコンテンツの第1部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第1キーワードを抽出する。
提示部は、複数の第1キーワードを選択可能にユーザに提示する。
そして、処理部は、ユーザにより選択された第1キーワードを用いて、選択された第1キーワードに関連する情報を検索するための処理を行う。
The extraction unit of the electronic device according to the embodiment presents to the user using information corresponding to the content viewed or recorded by the user from a plurality of keywords corresponding to the first portion of the content that the user is viewing at the first time. A plurality of first keywords to be extracted are extracted.
A presentation part presents a plurality of 1st keywords to a user so that selection is possible.
And a process part performs the process for searching the information relevant to the selected 1st keyword using the 1st keyword selected by the user.

図1は、映像情報記録再生装置の概要構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a video information recording / reproducing apparatus. 図2は、自動録画機能及びシーン検索機能に関わる機能構成を表すブロック図である。FIG. 2 is a block diagram showing a functional configuration related to the automatic recording function and the scene search function. 図3は、キーワードリストの表示例の説明図である。FIG. 3 is an explanatory diagram of a display example of the keyword list. 図4は、シーンリストの表示例の説明図である。FIG. 4 is an explanatory diagram of a display example of a scene list. 図5は、字幕キーワードDBのデータフォーマットの説明図である。FIG. 5 is an explanatory diagram of the data format of the caption keyword DB. 図6は、EPGキーワードDBのデータフォーマットの説明図である。FIG. 6 is an explanatory diagram of the data format of the EPG keyword DB. 図7は、キーワード選択履歴DBのデータフォーマットの説明図である。FIG. 7 is an explanatory diagram of a data format of the keyword selection history DB. 図8は、実施形態の動作フローチャートである。FIG. 8 is an operation flowchart of the embodiment. 図9は、キーワード抽出処理部のキーワード抽出処理の処理フローチャートである。FIG. 9 is a process flowchart of the keyword extraction process of the keyword extraction processing unit. 図10は、キーワード選択時処理の処理フローチャートである。FIG. 10 is a process flowchart of the keyword selection process. 図11は、コンテンツ推薦機能及び自動録画機能を実現するための前処理の処理フローチャートである。FIG. 11 is a process flowchart of preprocessing for realizing the content recommendation function and the automatic recording function.

次に図面を参照して、実施形態について詳細に説明する。
本実施形態においては、電子機器の一例として、放送番組を録画及び再生可能な映像情報記録再生装置を説明する。
Next, embodiments will be described in detail with reference to the drawings.
In this embodiment, a video information recording / reproducing apparatus capable of recording and reproducing a broadcast program will be described as an example of an electronic device.

図1は、映像情報記録再生装置の概要構成を示すブロック図である。
映像情報記録再生装置Xは、ハードディスクドライブ1と、メディアドライブ2と、データプロセッサ3と、メモリ4と、AV(Audio Video)入力部5と、TVチューナ6と、エンコーダ7と、フォーマッタ8と、デコーダ9と、V(Video)ミキサ10と、セレクタ11と、D/A(Digital/Analog)コンバータ12と、D/Aコンバータ13と、ディスプレイ14と、スピーカ15と、信号受信部16と、キー入力部17と、マイクロコンピュータ18と、リモートコントロール装置(リモコン)19と、を備えている。
FIG. 1 is a block diagram showing a schematic configuration of a video information recording / reproducing apparatus.
The video information recording / reproducing apparatus X includes a hard disk drive 1, a media drive 2, a data processor 3, a memory 4, an AV (Audio Video) input unit 5, a TV tuner 6, an encoder 7, a formatter 8, A decoder 9, a V (Video) mixer 10, a selector 11, a D / A (Digital / Analog) converter 12, a D / A converter 13, a display 14, a speaker 15, a signal receiving unit 16, and a key An input unit 17, a microcomputer 18, and a remote control device (remote control) 19 are provided.

ハードディスクドライブ1は、放送番組等のコンテンツに対応するコンテンツデータのハードディスクに対する書込/読出を行う。
メディアドライブ2は、放送番組等のコンテンツに対応するコンテンツデータの光ディスクメディアに対する書込/読出を行う。ここで、光ディスクメディアとしては、例えば、DVD規格或いはBlu−ray(登録商標)規格等に準拠したものが挙げられる。
The hard disk drive 1 writes / reads content data corresponding to content such as broadcast programs to / from the hard disk.
The media drive 2 writes / reads content data corresponding to content such as a broadcast program to / from an optical disc medium. Here, examples of the optical disc medium include media that comply with the DVD standard or the Blu-ray (registered trademark) standard.

データプロセッサ3は、メモリ4が記憶するコンピュータプログラムに従って各種の処理を実行する。データプロセッサ3は、メモリ4をコンピュータプログラムの実行に必要なワークエリアとして使用することもある。   The data processor 3 executes various processes according to the computer program stored in the memory 4. The data processor 3 may use the memory 4 as a work area necessary for executing the computer program.

例えば、データプロセッサ3は、後述するフォーマッタ8から供給されたデータをハードディスクドライブ1又はメディアドライブ2に供給し、当該データをハードディスク又は光ディスクメディアに保存することができる。また、データプロセッサ3は、例えば、ハードディスクドライブ1に保存されたデータ、或いはメディアドライブ2が光ディスクメディアから読み取るデータを後述するデコーダ9に供給する。
メモリ4は、コンピュータプログラムを不揮発的に記憶するROM(Read Only Memory)、各種データを一時的に記憶するRAM(Random Access Memory)を備えている。
For example, the data processor 3 can supply data supplied from the formatter 8 described later to the hard disk drive 1 or the media drive 2 and store the data on the hard disk or optical disk medium. Further, the data processor 3 supplies, for example, data stored in the hard disk drive 1 or data read from the optical disk medium by the media drive 2 to the decoder 9 described later.
The memory 4 includes a ROM (Read Only Memory) that stores a computer program in a nonvolatile manner and a RAM (Random Access Memory) that temporarily stores various data.

AV入力部5は、ディジタルのビデオ信号及びオーディオ信号の入力インタフェース動作を行い、例えば、外部接続機器から入力されるディジタルのビデオ信号及びオーディオ信号をエンコーダ7に供給する。   The AV input unit 5 performs an input interface operation of a digital video signal and an audio signal, and supplies a digital video signal and an audio signal input from an external connection device to the encoder 7, for example.

TVチューナ6は、図示しない外部のアンテナから供給されるディジタル放送信号ストリームをチューニング(選局)し、チューニングしたディジタル放送信号ストリームをエンコーダ7に供給する。ここで、TVチューナ6は、複数チャンネルの放送を同時にチューニング可能なようにアンテナを共用した複数の図示しないチューニング系統(チューニング回路)を備えているものとする。   The TV tuner 6 tunes (tunes) a digital broadcast signal stream supplied from an external antenna (not shown) and supplies the tuned digital broadcast signal stream to the encoder 7. Here, it is assumed that the TV tuner 6 includes a plurality of tuning systems (tuning circuits) (not shown) that share an antenna so that broadcasting of a plurality of channels can be simultaneously tuned.

また、ディジタル放送信号ストリームは、ビデオ信号、オーディオ信号、字幕信号、及び、EPG(Electronic Program Guide)信号等を含んでいる。ディジタル放送信号ストリームに含まれる字幕信号は、映像上への表示のオン/オフを切り替え可能な、いわゆる、クローズドキャプションに対応する信号である。
また、EPG信号は、電子番組情報に対応するものであり、電子番組情報としては、番組ごとに固有の番組ID、番組のタイトル、番組の放送日時、番組の放送局、番組の概要、番組のジャンル、番組の出演者、及び、番組記号等を表すデータを含む。ここで、番組記号は、新番組、最終回、生放送、再放送、或いは字幕放送等の番組の属性を表す。
The digital broadcast signal stream includes a video signal, an audio signal, a caption signal, an EPG (Electronic Program Guide) signal, and the like. The caption signal included in the digital broadcast signal stream is a signal corresponding to so-called closed caption, which can be switched on / off of display on video.
The EPG signal corresponds to electronic program information. The electronic program information includes a program ID unique to each program, a program title, a program broadcast date and time, a program broadcast station, a program overview, and a program description. It includes data representing genre, program performers, program symbols, and the like. Here, the program symbol represents an attribute of a program such as a new program, the last episode, a live broadcast, a rebroadcast, or a caption broadcast.

エンコーダ7は、例えばAV入力部5及びTVチューナ6から入力されるビデオ信号をMPEG1(Moving Picture Experts Group 1)或いはMPEG2(Moving Picture Experts Group 2)等の規格に従って圧縮されたディジタルのビデオ信号に変換し、フォーマッタ8に供給する。
また、エンコーダ7は、例えば、AV入力部5及びTVチューナ6から入力されるオーディオ信号をMPEG或いはAC−3(Audio Compression-3)等の規格に従って圧縮されたディジタルのオーディオ信号に変換し、フォーマッタ8に供給する。
The encoder 7 converts, for example, a video signal input from the AV input unit 5 and the TV tuner 6 into a digital video signal compressed in accordance with a standard such as MPEG1 (Moving Picture Experts Group 1) or MPEG2 (Moving Picture Experts Group 2). And supplied to the formatter 8.
Also, the encoder 7 converts, for example, an audio signal input from the AV input unit 5 and the TV tuner 6 into a digital audio signal compressed in accordance with a standard such as MPEG or AC-3 (Audio Compression-3), and the formatter 8 is supplied.

また、エンコーダ7は、TVチューナ6から入力されるディジタル放送信号ストリームに含まれる字幕信号及びEPG信号をデータプロセッサ3に供給する。
なお、エンコーダ7は、圧縮されたディジタルのビデオ信号及びオーディオ信号が入力されるときは、これらのビデオ信号及びオーディオ信号を直接フォーマッタ8に供給してもよい。また、エンコーダ7は、ディジタルのビデオ信号及びオーディオ信号をそれぞれ後述するビデオ(V)ミキサ10及びセレクタ11に直接供給することも可能である。
The encoder 7 supplies the data processor 3 with a caption signal and an EPG signal included in the digital broadcast signal stream input from the TV tuner 6.
The encoder 7 may supply the video signal and the audio signal directly to the formatter 8 when the compressed digital video signal and the audio signal are input. The encoder 7 can also directly supply a digital video signal and an audio signal to a video (V) mixer 10 and a selector 11, which will be described later.

フォーマッタ8は、エンコーダ7から供給されるディジタルのビデオ信号、オーディオ信号及び字幕信号についてPES(Packetized Elementary Stream)を生成する。さらに、フォーマッタ8は、生成した各信号のPESを集合して所定のVR(Video-Recording)規格のフォーマットに変換する。フォーマッタ8は、この変換により生成したデータをデータプロセッサ3に供給する。   The formatter 8 generates a PES (Packetized Elementary Stream) for the digital video signal, audio signal, and caption signal supplied from the encoder 7. Further, the formatter 8 aggregates the generated PESs of the signals and converts them into a predetermined VR (Video-Recording) standard format. The formatter 8 supplies the data generated by this conversion to the data processor 3.

デコーダ9は、データプロセッサ3から供給されるデータから映像、音声及び字幕に関するPESを取り出し、取り出した各PESをそれぞれビデオ信号、オーディオ信号及び字幕信号にデコードする。デコーダ9は、デコード後のビデオ信号及び字幕信号をVミキサ10に出力し、デコード後のオーディオ信号をセレクタ11に出力する。   The decoder 9 extracts PESs related to video, audio, and subtitles from the data supplied from the data processor 3, and decodes the extracted PESs into video signals, audio signals, and subtitle signals, respectively. The decoder 9 outputs the decoded video signal and subtitle signal to the V mixer 10, and outputs the decoded audio signal to the selector 11.

Vミキサ10は、デコーダ9等から供給されるビデオ信号に対して、字幕信号等のテキスト信号を合成する。Vミキサ10は、デコーダ9等から供給されるビデオ信号にOSD(On Screen Display)制御による画面のビデオ信号を合成する。Vミキサ10は、合成後のビデオ信号をD/Aコンバータ12に出力する。   The V mixer 10 synthesizes a text signal such as a caption signal with the video signal supplied from the decoder 9 or the like. The V mixer 10 synthesizes the video signal supplied from the decoder 9 or the like with a screen video signal by OSD (On Screen Display) control. The V mixer 10 outputs the combined video signal to the D / A converter 12.

セレクタ11は、デコーダ9から入力されるオーディオ信号やエンコーダ7から直接入力されるオーディオ信号から、音声として出力すべき信号を選択し、選択した信号を後述のD/Aコンバータ13に出力する。   The selector 11 selects a signal to be output as sound from the audio signal input from the decoder 9 or the audio signal input directly from the encoder 7, and outputs the selected signal to the D / A converter 13 described later.

D/Aコンバータ12は、Vミキサ10から入力されるディジタルのビデオ信号をアナログに変換し、テレビ装置等のディスプレイ14に出力する。ディスプレイ14は、入力されたビデオ信号に基づく画像を表示する。   The D / A converter 12 converts the digital video signal input from the V mixer 10 into an analog signal and outputs it to a display 14 such as a television apparatus. The display 14 displays an image based on the input video signal.

D/Aコンバータ13は、セレクタ11から入力されるディジタルのオーディオ信号をアナログに変換し、スピーカ15に出力する。スピーカ15は、入力されたオーディオ信号に応じた音声を出力する。   The D / A converter 13 converts the digital audio signal input from the selector 11 into an analog signal and outputs the analog signal to the speaker 15. The speaker 15 outputs sound corresponding to the input audio signal.

信号受信部16は、後述のリモートコントロール装置19から無線送信される操作信号を受信し、コントロール信号を後述のマイクロコンピュータ18に出力する。   The signal receiving unit 16 receives an operation signal wirelessly transmitted from a remote control device 19 described later, and outputs the control signal to a microcomputer 18 described later.

キー入力部17は、番組の録画や再生等に関わる各種の指示を入力するための複数のキーを備える。キー入力部17は、操作されたキーに応じた信号を後述のマイクロコンピュータ18に出力する。
マイクロコンピュータ18は、コンピュータプログラム等が書き込まれたROMと、ROMに書き込まれたコンピュータプログラムを実行するMPU(Micro-Processing Unit)と、コンピュータプログラムの実行に必要なワークエリアを提供するRAMとを備える。マイクロコンピュータ18は、キー入力部17から入力される信号や信号受信部16により出力されたコントロール信号に応じて、ハードディスクドライブ1、メディアドライブ2、データプロセッサ3、エンコーダ7、フォーマッタ8、デコーダ9、Vミキサ10、及び、セレクタ11等を制御する。
リモートコントロール装置19は、番組の録画や再生等に関わる各種のボタンを備え、ユーザにより操作されたボタンに対応する信号を信号受信部16に対して無線送信する。
The key input unit 17 includes a plurality of keys for inputting various instructions related to program recording and playback. The key input unit 17 outputs a signal corresponding to the operated key to the microcomputer 18 described later.
The microcomputer 18 includes a ROM in which a computer program or the like is written, an MPU (Micro-Processing Unit) that executes the computer program written in the ROM, and a RAM that provides a work area necessary for executing the computer program. . The microcomputer 18 includes a hard disk drive 1, a media drive 2, a data processor 3, an encoder 7, a formatter 8, a decoder 9, a signal input from the key input unit 17 and a control signal output from the signal receiving unit 16. The V mixer 10 and the selector 11 are controlled.
The remote control device 19 includes various buttons related to program recording and playback, and wirelessly transmits a signal corresponding to the button operated by the user to the signal receiving unit 16.

次に実施形態の映像情報記録再生装置Xの動作を説明するのに先だって、映像情報記録再生装置Xの機能構成について説明する。   Next, prior to describing the operation of the video information recording / reproducing apparatus X of the embodiment, the functional configuration of the video information recording / reproducing apparatus X will be described.

映像情報記録再生装置Xは、ユーザが予め指定したチャンネルや時間帯において放送される全ての番組を自動的に録画する自動録画機能を備えている。ここで、時間帯については指定すること無く、ハードディスクドライブ1における予め指定した記録容量範囲内で、連続して(たとえば、24時間以上)の記録を行うように構成することも可能である。この場合においては、ハードディスクドライブ1において指定された記録容量を超えた場合には、ハードディスクドライブ1の番組記録領域をリングバッファのように用い、最も古い記録領域に最新の上書記録を行うようにして現在時刻から所定時間さかのぼって最新の番組を記録し続けるように構成することもできる。   The video information recording / reproducing apparatus X has an automatic recording function for automatically recording all programs broadcast in a channel and time zone designated in advance by the user. Here, it is possible to perform recording continuously (for example, for 24 hours or more) within the recording capacity range specified in advance in the hard disk drive 1 without specifying the time zone. In this case, when the recording capacity specified in the hard disk drive 1 is exceeded, the program recording area of the hard disk drive 1 is used like a ring buffer, and the latest overwrite recording is performed in the oldest recording area. Thus, the latest program can be recorded continuously for a predetermined time from the current time.

さらに、映像情報記録再生装置Xは、予め抽出したキーワードをディスプレイ14に提示し、提示したキーワードのうちからユーザが選択したキーワードに対応するシーンを録画した番組から検索するシーン検索機能を備えている。   Furthermore, the video information recording / reproducing apparatus X has a scene search function that presents a keyword extracted in advance on the display 14 and searches a recorded program for a scene corresponding to the keyword selected by the user from the presented keywords. .

図2は、自動録画機能及びシーン検索機能に関わる機能構成を表すブロック図である。
映像情報記録再生装置Xの機能構成としては、コンテンツ処理部100と、字幕処理部101と、EPG処理部102と、放送波処理部103と、コンテンツ再生部104と、キーワード抽出処理部105と、キーワードリスト処理部106と、シーンリスト処理部107と、OSD制御部108と、コンテンツDB(Data Base)110と、字幕DB111と、字幕キーワードDB112と、EPG DB113と、EPGキーワードDB114と、キーワード選択履歴DB115と、ユーザ録画DB116と、キーワードDB117と、を備える。
FIG. 2 is a block diagram showing a functional configuration related to the automatic recording function and the scene search function.
The functional configuration of the video information recording / reproducing apparatus X includes a content processing unit 100, a caption processing unit 101, an EPG processing unit 102, a broadcast wave processing unit 103, a content reproduction unit 104, a keyword extraction processing unit 105, Keyword list processing unit 106, scene list processing unit 107, OSD control unit 108, content DB (Data Base) 110, subtitle DB 111, subtitle keyword DB 112, EPG DB 113, EPG keyword DB 114, and keyword selection history DB 115, user recording DB 116, and keyword DB 117 are provided.

コンテンツ処理部100、字幕処理部101、EPG処理部102、放送波処理部103、コンテンツ再生部104、キーワード抽出処理部105、キーワードリスト処理部106、シーンリスト処理部107及びOSD制御部108は、例えばデータプロセッサ3或いはマイクロコンピュータ18等の制御要素がコンピュータプログラムを実行し、映像情報記録再生装置Xが備えるハードウェアモジュールと協働することにより実現される。
コンテンツDB110、字幕DB111、字幕キーワードDB112、EPG DB113、EPGキーワードDB114、キーワード選択履歴DB115、ユーザ録画DB116及びキーワードDB117は、ハードディスクドライブ1に記憶されている。
The content processing unit 100, the caption processing unit 101, the EPG processing unit 102, the broadcast wave processing unit 103, the content reproduction unit 104, the keyword extraction processing unit 105, the keyword list processing unit 106, the scene list processing unit 107, and the OSD control unit 108 For example, the control element such as the data processor 3 or the microcomputer 18 executes a computer program and cooperates with a hardware module provided in the video information recording / reproducing apparatus X.
The content DB 110, subtitle DB 111, subtitle keyword DB 112, EPG DB 113, EPG keyword DB 114, keyword selection history DB 115, user recording DB 116, and keyword DB 117 are stored in the hard disk drive 1.

コンテンツ処理部100は、例えばユーザが予め指定した時間帯において、ユーザが予め指定したチャンネルのディジタル放送信号ストリームに含まれるビデオ信号及びオーディオ信号に対応するコンテンツデータをコンテンツDB110に保存する。ここで、コンテンツデータは、例えばフォーマッタ8において上述のVR規格のフォーマットに変換されたデータである。   The content processing unit 100 stores, in the content DB 110, content data corresponding to a video signal and an audio signal included in a digital broadcast signal stream of a channel designated in advance by the user, for example, in a time zone designated in advance by the user. Here, the content data is, for example, data converted in the format of the VR standard described above in the formatter 8.

字幕処理部101は、例えばユーザが予め指定した時間帯において、ユーザが予め指定したチャンネルのディジタル放送信号ストリームに含まれる字幕信号に対応する字幕データを字幕DB111に保存する。字幕データは、例えばフォーマッタ8において上述のVR規格のフォーマットに変換されたデータであり、字幕の表示対象である番組の番組IDと、字幕の文字列を表す文字列情報と、字幕の表示時刻を表す表示時刻情報とを含む。表示時刻情報は、字幕の表示開始時刻と表示終了時刻とを含む。表示開始時刻及び表示終了時刻は、例えば世界協定時(UTC)や日本標準時(JST)などの表記、又は、番組の先頭からの再生経過時間を用いて表現することができる。   The caption processing unit 101 stores, in the caption DB 111, caption data corresponding to a caption signal included in a digital broadcast signal stream of a channel previously designated by the user, for example, in a time zone designated by the user in advance. The caption data is, for example, data converted into the above-mentioned VR standard format in the formatter 8, and includes a program ID of a program that is a display target of captions, character string information that represents a caption character string, and a caption display time. Display time information. The display time information includes a subtitle display start time and a display end time. The display start time and the display end time can be expressed by using, for example, notation such as Coordinated Universal Time (UTC) or Japan Standard Time (JST), or the elapsed playback time from the beginning of the program.

また、字幕処理部101は、字幕DB111に保存する字幕データに含まれる字幕文字列から字幕キーワードを抽出し、抽出した字幕キーワードと字幕データとを対応づけて字幕キーワードDB112に保存する。   Also, the caption processing unit 101 extracts a caption keyword from the caption character string included in the caption data stored in the caption DB 111, associates the extracted caption keyword with the caption data, and stores it in the caption keyword DB 112.

EPG処理部102は、ユーザ録画DB116に記録されているユーザが手動により録画を指示した番組の情報である手動録画データに基づいて、当該手動録画データに対応するチャンネルのディジタル放送信号ストリームに含まれるEPG信号に対応するEPGデータをEPG DB113に保存する。EPGデータは、上述の電子番組情報を表す。   The EPG processing unit 102 is included in the digital broadcast signal stream of the channel corresponding to the manual recording data based on the manual recording data which is the information of the program manually recorded by the user recorded in the user recording DB 116. EPG data corresponding to the EPG signal is stored in the EPG DB 113. EPG data represents the electronic program information described above.

また、EPG処理部102は、EPG DB113に保存したユーザが手動により録画を指示した番組に対応するEPGデータが表す文字列からシーン検索に用いるキーワードであるEPGキーワードを抽出し、抽出したEPGキーワードとEPGデータとを対応づけてEPGキーワードDB114に保存する。   Further, the EPG processing unit 102 extracts an EPG keyword that is a keyword used for a scene search from a character string represented by EPG data corresponding to a program that is manually recorded by the user and stored in the EPG DB 113, and the extracted EPG keyword and The EPG data is stored in the EPG keyword DB 114 in association with the EPG data.

放送波処理部103は、ユーザがリモートコントロール装置19の操作等により選局したチャンネルに対応するディジタル放送信号ストリームからビデオ信号及びオーディオ信号を取り込み、取り込んだビデオ信号に応じた映像をディスプレイ14に表示させる。放送波処理部103は、映像のディスプレイ14への表示とともに、取り込んだオーディオ信号に応じた音声をスピーカ15に出力させる。また、放送波処理部103は、ユーザがリモートコントロール装置19の操作等により字幕表示をオンにした場合には、ディジタル放送信号ストリームに含まれる字幕信号に応じた字幕をディスプレイ14に表示させる。   The broadcast wave processing unit 103 captures a video signal and an audio signal from a digital broadcast signal stream corresponding to a channel selected by the user by operating the remote control device 19 and displays a video corresponding to the captured video signal on the display 14. Let The broadcast wave processing unit 103 causes the speaker 15 to output a sound corresponding to the captured audio signal while displaying the video on the display 14. In addition, when the user turns on caption display by operating the remote control device 19 or the like, the broadcast wave processing unit 103 causes the display 14 to display captions according to the caption signal included in the digital broadcast signal stream.

コンテンツ再生部104は、コンテンツDB110に保存されたコンテンツデータ、すなわち、録画番組を再生する。より詳細には、コンテンツ再生部104は、コンテンツDB110に保存されたコンテンツデータに対応する映像をディスプレイ14に表示させるとともに、当該コンテンツデータに対応する音声をスピーカ15に出力させる。コンテンツ再生部104は、字幕表示が指示されている場合には、コンテンツDB110に保存されたコンテンツデータの再生と同期させて、字幕DB111に保存された字幕データに対応する字幕をディスプレイ14に表示させる。   The content reproduction unit 104 reproduces content data stored in the content DB 110, that is, a recorded program. More specifically, the content reproduction unit 104 causes the display 14 to display a video corresponding to the content data stored in the content DB 110 and causes the speaker 15 to output sound corresponding to the content data. When the subtitle display is instructed, the content reproduction unit 104 causes the display 14 to display the subtitle corresponding to the subtitle data stored in the subtitle DB 111 in synchronization with the reproduction of the content data stored in the content DB 110. .

キーワード抽出処理部105は、字幕キーワードDB112、EPGキーワードDB114及びキーワード選択履歴DB115を参照して後に詳述するシーン検索処理においてディスプレイ14に表示すべきキーワードリスト150に表示する所定数の検索キーワードを抽出して、キーワードDB117に格納する。ここで、所定数としては、例えば、ディスプレイ14の画面に1回に表示する検索キーワード数を4個とした場合、4回(4画面)に分けて表示するとして、4(個)×4(回)=16個とする。   The keyword extraction processing unit 105 extracts a predetermined number of search keywords to be displayed on the keyword list 150 to be displayed on the display 14 in a scene search process to be described in detail later with reference to the caption keyword DB 112, the EPG keyword DB 114, and the keyword selection history DB 115. And stored in the keyword DB 117. Here, as the predetermined number, for example, when the number of search keywords to be displayed once on the screen of the display 14 is four, four (four) × 4 (four screens) are displayed. Times) = 16.

また、キーワード抽出処理部105は、所定の処理手順に従ってキーワードDB117に格納した検索キーワードの表示優先順位を決定し、表示優先順位の高い検索キーワードをキーワードリスト処理部106に通知する。   Further, the keyword extraction processing unit 105 determines the display priority of the search keywords stored in the keyword DB 117 according to a predetermined processing procedure, and notifies the keyword list processing unit 106 of the search keywords having a high display priority.

また、キーワード抽出処理部105は、シーン検索処理において、ユーザがディスプレイ14に表示したキーワードリスト150からシーン検索対象の検索キーワードを選択した場合に、当該選択された検索キーワードに基づいて、キーワード選択履歴DB115を更新する。   In addition, when the user selects a search keyword to be searched for a scene from the keyword list 150 displayed on the display 14 in the scene search process, the keyword extraction processing unit 105 selects a keyword selection history based on the selected search keyword. The DB 115 is updated.

ここで、表示優先順位の設定の一例について説明する。
表示優先順位の基本的考え方としては、ユーザが過去に選択したキーワードは、ユーザの嗜好性に沿ったものであるとして、優先的に取り扱う。
Here, an example of setting the display priority will be described.
As a basic idea of display priority, keywords selected by the user in the past are preferentially handled as being in line with user preference.

また放送中の番組の視聴中又は録画した番組の再生中において、当該番組の場面のキーワードは、ユーザが現在見ているシーンの話題に関連するキーワードと考えられるため優先的に取り扱う。
例えば、表示優先順位として、第1位〜第6位まで以下の(1)〜(6)のように設定する。
Also, during viewing of a broadcast program or playback of a recorded program, the keyword of the scene of the program is preferentially handled because it is considered a keyword related to the topic of the scene that the user is currently viewing.
For example, the display priorities are set as the following (1) to (6) from the first to the sixth.

(1)表示優先順位第1位
放送中の番組の視聴中又は録画した番組の再生視聴中において、視聴時点の時刻(第1時間に相当)あるいは再生時間軸上の再生位置に対応する時刻である基準時刻に対応する所定の時間帯において字幕データから抽出したキーワードであって、キーワード選択履歴DBに含まれるキーワードと一致するキーワード
(1) No. 1 in display priority level When viewing a program being broadcast or playing a recorded program, the time at the time of viewing (corresponding to the first time) or the time corresponding to the playback position on the playback time axis A keyword extracted from caption data in a predetermined time zone corresponding to a certain reference time, and matches a keyword included in the keyword selection history DB

ここで基準時刻に対応する所定の時間帯とは、例えば、以下の(A)〜(C)に示すようなものが考えられる。
(A)録画した番組の再生中にあっては、基準時刻に対して基準時刻を含む前後の時間帯(例えば、基準時刻に対して3分前の時刻から3分後の時刻まで)
(B)基準時刻に対して基準時刻を含む前の時間帯(例えば、基準時刻の3分前から基準時刻まで)
(C)基準時刻よりも前の時間帯(例えば、基準時刻の3分前の時刻から基準時刻の1分前の時刻まで)
Here, as the predetermined time zone corresponding to the reference time, for example, the following (A) to (C) can be considered.
(A) During playback of a recorded program, time zones before and after the reference time including the reference time (for example, from the time 3 minutes before the reference time to the time 3 minutes later)
(B) Time zone before the reference time including the reference time (for example, from 3 minutes before the reference time to the reference time)
(C) Time zone before the reference time (for example, from the time 3 minutes before the reference time to the time 1 minute before the reference time)

(2)表示優先順位第2位
放送中の番組の視聴中又は録画した番組のEPG情報から抽出したキーワードであって、キーワード選択履歴DBに含まれるキーワードと一致するキーワード
(2) Display priority 2nd Keyword extracted from EPG information of a program being watched or recorded, which matches the keyword included in the keyword selection history DB

(3)表示優先順位第3位
放送中の番組の視聴中又は録画した番組の再生視聴中において、視聴時点の時刻あるいは再生時間軸上の再生位置に対応する時刻である基準時刻に対応する所定の時間帯において字幕データから抽出したキーワードであって、EPG DBに含まれるキーワードと一致するキーワード
(4)表示優先順位第4位
放送中の番組の視聴中又は録画した番組のEPG情報から抽出したキーワードであって、EPG DBに含まれるキーワードと一致するキーワード
(5)表示優先順位第5位
放送中の番組の視聴中又は録画した番組の再生視聴中において、視聴時点の時刻あるいは再生時間軸上の再生位置に対応する時刻である基準時刻に対応する所定の時間帯において字幕データから抽出したキーワードであって、上記(1)、(3)に該当するキーワード以外のキーワード
(6)表示優先順位第6位
放送中の番組の視聴中又は録画した番組のEPG情報から抽出したキーワードであって、上記(2)、(4)に該当するキーワード以外のキーワード
これらの結果、よりユーザの嗜好が反映されたキーワードの表示優先順位を高く設定することができる。ひいては、ユーザの嗜好をより的確に反映したキーワードを提示することができる。
(3) Display priority 3rd During viewing of a broadcast program or playback of a recorded program, a predetermined time corresponding to a reference time which is a time corresponding to the time of viewing or the playback position on the playback time axis Keywords extracted from subtitle data in the time zone of (1) Keyword that matches the keyword included in the EPG DB (4) Display priority No. 4 Extracted from EPG information of a program being watched or recorded Keyword that matches the keyword included in the EPG DB (5) Display priority 5th During viewing of a broadcast program or playback of a recorded program, the viewing time or playback time axis Keywords extracted from caption data in a predetermined time zone corresponding to a reference time, which is a time corresponding to the playback position of ), Keywords other than those corresponding to (3) (6) display priority No. 6 A keyword extracted from EPG information of a program being viewed or recorded while being broadcast, and the above (2), (4 Keywords other than those that fall under ()) As a result, it is possible to set a higher display priority for keywords that reflect user preferences. As a result, it is possible to present a keyword that more accurately reflects the user's preference.

キーワードリスト処理部106は、キーワード抽出処理部105により通知された表示優先順位の高い検索キーワード(上述の例の場合、16個の検索キーワード)のうち、ディスプレイ14の画面に1回に表示する検索キーワード(上述の例の場合、4個の検索キーワード)が選択可能に配置されたキーワード画像であるキーワードリスト150を生成する。   The keyword list processing unit 106 performs a search that is displayed once on the screen of the display 14 among the search keywords with high display priority notified by the keyword extraction processing unit 105 (16 search keywords in the above example). A keyword list 150, which is a keyword image in which keywords (four search keywords in the above example) are arranged to be selectable, is generated.

ここでキーワードリスト150の表示例について説明する。
図3は、キーワードリストの表示例の説明図である。
この場合において、検索キーワードとして、検索キーワードKW1〜KW16の16個が抽出され、キーワード抽出処理部105からキーワードリスト処理部106に通知されたものとする。また、検索キーワードKW1が最も表示優先度が高く、検索キーワードKW2→…→検索キーワードKW16の順番で表示優先度が低くなっており、検索キーワードKW16が最も表示優先度が低くなっているものとする。
Here, a display example of the keyword list 150 will be described.
FIG. 3 is an explanatory diagram of a display example of the keyword list.
In this case, 16 search keywords KW1 to KW16 are extracted as search keywords, and notified to the keyword list processing unit 106 from the keyword extraction processing unit 105. Further, it is assumed that the search keyword KW1 has the highest display priority, the display priority is low in the order of the search keyword KW2 →... → the search keyword KW16, and the search keyword KW16 has the lowest display priority. .

図3に示すように、ディスプレイ14の表示画面には、再生画面あるいは視聴画面が表示されており、その一部に最も表示優先度が高い検索キーワードKW1〜KW4がキーワードリスト150として表示されている。   As shown in FIG. 3, a playback screen or a viewing screen is displayed on the display screen of the display 14, and search keywords KW <b> 1 to KW <b> 4 having the highest display priority are displayed as a keyword list 150 in a part of the display screen. .

これにより、リモートコントロール装置19によりいずれかの検索キーワードが選択可能とされている。なお、リモートコントロール装置19の操作により、次のキーワードリストの表示が指示された場合には、次に表示優先度が高い検索キーワードKW5〜KW8が新たなキーワードリスト150として表示される。   As a result, any one of the search keywords can be selected by the remote control device 19. When the display of the next keyword list is instructed by the operation of the remote control device 19, the search keywords KW5 to KW8 having the next highest display priority are displayed as the new keyword list 150.

なお、検索キーワードKW13〜KW16がキーワードリスト150として表示されている場合には、次のキーワードリストの表示が指示された場合には、再び最も表示優先度が高い検索キーワードKW1〜KW4がキーワードリスト150として表示される。   When the search keywords KW13 to KW16 are displayed as the keyword list 150, when the display of the next keyword list is instructed, the search keywords KW1 to KW4 having the highest display priority are again displayed as the keyword list 150. Is displayed.

シーンリスト処理部107は、キーワードリスト150から選択されたキーワードを字幕に含むシーンを録画番組から抽出し、抽出したシーンを選択可能に表すシーン画像の画像データを生成する。本実施形態におけるシーン画像は、例えばシーンに関する情報を予め定められた条件に従って配列したシーンリスト151である。   The scene list processing unit 107 extracts a scene including the keyword selected from the keyword list 150 in the subtitles from the recorded program, and generates image data of a scene image representing the extracted scene in a selectable manner. The scene image in this embodiment is, for example, a scene list 151 in which information related to a scene is arranged according to a predetermined condition.

図4は、シーンリストの表示例の説明図である。
シーンリスト151は、複数のシーンエリア(=一つのシーンであると認識される領域)を表示可能であり、図4においては、5つのシーンエリアA1〜A5を示している。
各シーンエリアA1〜A5は、字幕キーワードレコードに含まれる番組IDに対応する録画番組のタイトルと、当該番組の放送局と、当該番組の放送日時とを含む。シーンリスト処理部107は、シーンリスト151の画像データを生成するに当たり、例えば番組IDをキーとしてEPG DB113を検索することによって、これらタイトル、放送局及び放送日時を得る。
より具体的には、シーンエリアA1を例とすると、シーンエリアA1には録画番組のタイトル=「番組A」、放送局=「地デジ081」、放送日時=「10/6(土) PM3:00〜PM4:54」が表示されている。
FIG. 4 is an explanatory diagram of a display example of a scene list.
The scene list 151 can display a plurality of scene areas (= area recognized as one scene), and FIG. 4 shows five scene areas A1 to A5.
Each scene area A1 to A5 includes the title of the recorded program corresponding to the program ID included in the caption keyword record, the broadcast station of the program, and the broadcast date and time of the program. When generating the image data of the scene list 151, the scene list processing unit 107 obtains the title, broadcast station, and broadcast date and time by searching the EPG DB 113 using, for example, the program ID as a key.
More specifically, taking the scene area A1 as an example, the title of the recorded program = “program A”, broadcast station = “terrestrial digital 081”, broadcast date = “10/6 (Sat) PM3: 00-PM4: 54 "is displayed.

また、各シーンエリアA1〜A5は、対応するシーンを代表するサムネイルT1〜T5を含む。例えば、サムネイルT1〜T5は、字幕キーワードDB112を構成しているデータに含まれる表示時刻情報における録画番組の画像が表示される。ここで、シーンリスト処理部107は、シーンリスト151のサムネイルT1〜T5を生成するに当たり、例えば番組IDをキーとしてコンテンツDB110から録画番組を検索し、発見した録画番組において上記表示時刻情報の表示開始時刻に対応する画像を縮小することにより生成する。   Each scene area A1 to A5 includes thumbnails T1 to T5 representing the corresponding scene. For example, thumbnails T1 to T5 display images of recorded programs in the display time information included in the data constituting the caption keyword DB 112. Here, when generating the thumbnails T1 to T5 of the scene list 151, for example, the scene list processing unit 107 searches for a recorded program from the content DB 110 using the program ID as a key, and starts displaying the display time information in the found recorded program. It is generated by reducing the image corresponding to the time.

図4においては、シーンリスト151を1ページしか示していないが、それぞれ異なるシーンエリアを含む複数のページによって構成することも可能である。この場合、例えばリモートコントロール装置19の操作によってページの切り替えが指示されたことに応じて、OSD制御部108がシーンリスト151に配置するシーンエリアを次ページあるいは前ページに切り替える。   In FIG. 4, only one page of the scene list 151 is shown, but it may be configured by a plurality of pages each including a different scene area. In this case, for example, in response to an instruction to switch pages by operating the remote control device 19, the OSD control unit 108 switches the scene area to be arranged in the scene list 151 to the next page or the previous page.

そして、ユーザは、例えば、リモートコントロール装置19の操作によってシーンリスト151から所望のシーンエリアを選択することができる。   The user can select a desired scene area from the scene list 151 by operating the remote control device 19, for example.

OSD制御部108は、キーワードリスト処理部106が生成した画像データに応じたキーワードリスト150、及び、シーンリスト処理部107が生成した画像データに応じたシーンリスト151を、ディスプレイ14に表示中の映像上に表示する。   The OSD control unit 108 is a video that is being displayed on the display 14 with the keyword list 150 corresponding to the image data generated by the keyword list processing unit 106 and the scene list 151 corresponding to the image data generated by the scene list processing unit 107. Display above.

次に字幕キーワードDB112、EPGキーワードDB114及びキーワード選択履歴DB115の構成について説明する。
まず、字幕キーワードDB112のデータフォーマットについて説明する。
図5は、字幕キーワードDBのデータフォーマットの説明図である。
字幕キーワードDB112は、コンテンツとしての放送番組を特定する番組IDが格納された番組IDデータ112Aと、字幕キーワードを格納したキーワードデータ112Bと、当該字幕キーワードが表示される時刻に関する情報を格納した表示時刻情報データ112Cと、を備えている。
Next, the configuration of the caption keyword DB 112, the EPG keyword DB 114, and the keyword selection history DB 115 will be described.
First, the data format of the caption keyword DB 112 will be described.
FIG. 5 is an explanatory diagram of the data format of the caption keyword DB.
The subtitle keyword DB 112 stores program ID data 112A in which a program ID for specifying a broadcast program as content is stored, keyword data 112B in which subtitle keywords are stored, and a display time in which information on the time at which the subtitle keyword is displayed is stored. Information data 112C.

次にEPGキーワードDB114のデータフォーマットについて説明する。
図6は、EPGキーワードDBのデータフォーマットの説明図である。
EPGキーワードDB114は、コンテンツとしての放送番組を特定する番組IDが格納された番組IDデータ114Aと、EPGキーワードを格納したキーワードデータ114Bと、を備えている。
Next, the data format of the EPG keyword DB 114 will be described.
FIG. 6 is an explanatory diagram of the data format of the EPG keyword DB.
The EPG keyword DB 114 includes program ID data 114A in which a program ID for specifying a broadcast program as content is stored, and keyword data 114B in which an EPG keyword is stored.

次にキーワード選択履歴DB115のデータフォーマットについて説明する。
図7は、キーワード選択履歴DBのデータフォーマットの説明図である。
キーワード選択履歴DB115は、キーワードリスト150に表示されたキーワードのうち、ユーザにより一度でも選択されたことがあるキーワードが格納されたキーワードデータ115Aと、キーワードデータに対応するキーワードの選択回数が格納された選択回数データ115Bと、キーワードデータ115Aに対応するキーワードが最終的に選択された日付及び時刻である最終選択時刻が格納された最終選択時刻データ115Cと、を備えている。
図7の例の場合においては、「キーワード1」については、選択回数が「12回」であり、最終選択時刻が「12月24日の20:00」となっている。
Next, the data format of the keyword selection history DB 115 will be described.
FIG. 7 is an explanatory diagram of a data format of the keyword selection history DB.
The keyword selection history DB 115 stores keyword data 115A that stores keywords that have been selected even once by the user among the keywords displayed in the keyword list 150, and the number of selections of keywords corresponding to the keyword data. Selection frequency data 115B, and final selection time data 115C in which a final selection time that is a date and time when a keyword corresponding to the keyword data 115A is finally selected is stored.
In the case of the example in FIG. 7, for “keyword 1”, the number of selections is “12”, and the last selection time is “20:00 on December 24”.

次に実施形態の映像情報記録再生装置Xの動作を説明する。
初期状態において、既にユーザが手動により録画を指示した番組があり、当該番組に対応するEPGデータが取得可能な状態となっているものとする。
図8は、実施形態の動作フローチャートである。
ユーザが放送中の番組の視聴中又は録画した番組を再生中において、シーン検索を指示するシーン検索ボタンを押したか否かを判別する(ステップS11)。
ステップS11の判別において、シーン検索ボタンが押されていない場合には(ステップS11;No)、処理を終了する。
ステップS11の判別において、シーン検索ボタンが押された場合には(ステップS11;Yes)、キーワード抽出処理部105は、キーワードリスト150として表示させる所定数の検索キーワードの抽出処理を行ってキーワードリスト処理部106に通知する(ステップS12)。
Next, the operation of the video information recording / reproducing apparatus X of the embodiment will be described.
Assume that in the initial state, there is already a program for which the user has manually instructed recording, and EPG data corresponding to the program can be acquired.
FIG. 8 is an operation flowchart of the embodiment.
It is determined whether or not the user has pressed a scene search button for instructing a scene search while viewing a broadcast program or playing a recorded program (step S11).
If it is determined in step S11 that the scene search button has not been pressed (step S11; No), the process ends.
If it is determined in step S11 that the scene search button is pressed (step S11; Yes), the keyword extraction processing unit 105 performs extraction processing of a predetermined number of search keywords to be displayed as the keyword list 150 to perform keyword list processing. The unit 106 is notified (step S12).

図9は、キーワード抽出処理部のキーワード抽出処理の処理フローチャートである。
まず、キーワード抽出処理部105は、キーワード選択履歴DB115からユーザが過去に選択したキーワードを取得する(ステップS21)。
次にキーワード抽出処理部105は、EPGキーワードDB114からユーザが手動により録画を指示した番組に対応するEPGキーワードを取得する(ステップS22)。
FIG. 9 is a process flowchart of the keyword extraction process of the keyword extraction processing unit.
First, the keyword extraction processing unit 105 acquires a keyword selected by the user in the past from the keyword selection history DB 115 (step S21).
Next, the keyword extraction processing unit 105 acquires an EPG keyword corresponding to a program for which the user has manually instructed recording from the EPG keyword DB 114 (step S22).

続いて、キーワード抽出処理部105は、字幕キーワードDB112から放送中の番組又は録画して再生中の番組の字幕キーワードを取得する(ステップS23)。
そしてキーワード抽出処理部105は、ステップS21〜ステップS23の処理において取得した全キーワードに基づいて、上述したように表示優先度を決定し、所定の処理手順に従ってキーワードDB117に格納した検索キーワードの表示優先順位を決定し、表示優先順位の高い検索キーワードを抽出してキーワードリスト処理部106に通知する(ステップS24)。
Subsequently, the keyword extraction processing unit 105 acquires the caption keyword of the program being broadcast or the program being recorded and reproduced from the caption keyword DB 112 (step S23).
Then, the keyword extraction processing unit 105 determines the display priority as described above based on all the keywords acquired in steps S21 to S23, and displays the search keywords stored in the keyword DB 117 according to a predetermined processing procedure. The ranking is determined, search keywords having a high display priority are extracted and notified to the keyword list processing unit 106 (step S24).

キーワードリスト処理部106は、キーワード抽出処理部105により通知されたキーワードを配置したキーワードリスト150の画像データを生成し、生成した画像データに基づくキーワードリスト150の表示をOSD制御部108に指令する。OSD制御部108は、キーワードリスト処理部106が生成した画像データに基づくキーワードリスト150を、ディスプレイ14に表示中の映像上に表示する(ステップS13)。
さらにキーワードリスト処理部106は、ユーザによりリモートコントロール装置19において所定のキーワード選択ボタンが押されたか否かを判別する(ステップS14)。
ステップS14の判別において、キーワード選択ボタンが押されていない場合には(ステップS14;No)、待機状態となる。
ステップS14の判別において、キーワード選択ボタンが押された場合には(ステップS14;Yes)、キーワード選択時処理に移行する(ステップS15)。
The keyword list processing unit 106 generates image data of the keyword list 150 in which the keyword notified by the keyword extraction processing unit 105 is arranged, and instructs the OSD control unit 108 to display the keyword list 150 based on the generated image data. The OSD control unit 108 displays the keyword list 150 based on the image data generated by the keyword list processing unit 106 on the video being displayed on the display 14 (step S13).
Further, the keyword list processing unit 106 determines whether or not a predetermined keyword selection button has been pressed by the user on the remote control device 19 (step S14).
If it is determined in step S14 that the keyword selection button has not been pressed (step S14; No), a standby state is entered.
If it is determined in step S14 that the keyword selection button has been pressed (step S14; Yes), the process proceeds to keyword selection processing (step S15).

図10は、キーワード選択時処理の処理フローチャートである。
まず、キーワード抽出処理部105は、キーワード選択履歴DB115を参照する(ステップS31)。
続いて押されたキーワード選択ボタンに対応するキーワードがキーワード選択履歴DB115に登録済みのキーワードであるか否かを判別する(ステップS32)。
ステップS32の判別において、キーワード選択ボタンに対応するキーワードがキーワード選択履歴DB115に登録済みのキーワードである場合には(ステップS32;Yes)、処理をステップS34に移行する。
ステップS32の判別において、キーワード選択ボタンに対応するキーワードがキーワード選択履歴DB115に登録済みではないキーワードである場合には(ステップS32;No)、選択されたキーワードをキーワード選択履歴DB115に追加して登録する(ステップS33)。
続いて選択されたキーワードの選択回数データに1を加算する(ステップS34)。従って初回登録の場合には、選択回数データ=1となり、2回目以降の場合には、選択回数データ=前回までの選択回数+1となる。
そして、キーワードリスト処理部106は、最終選択時刻データ115Cに対応する時刻を現在時刻に更新し(ステップS35)、シーンリスト処理部107に当該選択されたキーワードを通知する。
FIG. 10 is a process flowchart of the keyword selection process.
First, the keyword extraction processing unit 105 refers to the keyword selection history DB 115 (step S31).
Subsequently, it is determined whether or not the keyword corresponding to the pressed keyword selection button is a keyword already registered in the keyword selection history DB 115 (step S32).
If it is determined in step S32 that the keyword corresponding to the keyword selection button is a keyword already registered in the keyword selection history DB 115 (step S32; Yes), the process proceeds to step S34.
If it is determined in step S32 that the keyword corresponding to the keyword selection button is not a keyword already registered in the keyword selection history DB 115 (step S32; No), the selected keyword is added to the keyword selection history DB 115 and registered. (Step S33).
Subsequently, 1 is added to the selection frequency data of the selected keyword (step S34). Therefore, in the case of the first registration, the selection number data = 1, and in the second and subsequent times, the selection number data = the number of selections up to the previous time + 1.
Then, the keyword list processing unit 106 updates the time corresponding to the last selection time data 115C to the current time (step S35), and notifies the scene list processing unit 107 of the selected keyword.

キーワードの通知を受けたことに応じて、シーンリスト処理部107は、当該キーワードを字幕に含むシーンを録画番組から抽出し、録画番組のシーンを選択可能に表すシーンリスト151の画像データを生成し、生成した画像データに基づくシーンリスト151の表示をOSD制御部108に指令する。この指令を受けたことに応じて、OSD制御部108は、シーンリスト処理部107が生成した画像データに基づくシーンリスト151を、ディスプレイ14に表示中の映像上に表示する(ステップS16)。   In response to receiving the keyword notification, the scene list processing unit 107 extracts a scene including the keyword in the subtitles from the recorded program, and generates image data of the scene list 151 that can select a scene of the recorded program. The OSD control unit 108 is instructed to display the scene list 151 based on the generated image data. In response to receiving this command, the OSD control unit 108 displays the scene list 151 based on the image data generated by the scene list processing unit 107 on the video being displayed on the display 14 (step S16).

シーンリスト151をディスプレイ14に表示させた状態で、シーンリスト処理部107は、図4に示したシーンリスト151において、いずれかのシーンエリアの選択を行うシーン選択ボタンがリモートコントロール装置19において押されたか否かを判別する(ステップS17)。
ステップS17の判別において、いずれのシーン選択ボタンも押されていない場合には(ステップS17;No)、待機状態となる。
ステップS17の判別において、いずれかのシーン選択ボタンが押された場合には(ステップS17;Yes)、シーンリスト処理部107は、当該選択されたシーンエリアに対応する録画番組の番組IDと、当該シーンの時刻情報とをコンテンツ再生部104に通知する。ここでの時刻情報は、録画番組の先頭からの再生経過時間であり、例えば選択されたシーンエリアAに対応する字幕キーワードレコードに含まれる表示時刻情報の表示開始時刻とすることができる。
With the scene list 151 displayed on the display 14, the scene list processing unit 107 presses the scene selection button for selecting one of the scene areas in the scene list 151 shown in FIG. 4 on the remote control device 19. It is determined whether or not (step S17).
If it is determined in step S17 that no scene selection button has been pressed (step S17; No), a standby state is entered.
If any scene selection button is pressed in the determination in step S17 (step S17; Yes), the scene list processing unit 107 determines the program ID of the recorded program corresponding to the selected scene area, The content playback unit 104 is notified of the scene time information. The time information here is the playback elapsed time from the beginning of the recorded program, and can be, for example, the display start time of the display time information included in the caption keyword record corresponding to the selected scene area A.

コンテンツ再生部104は、番組ID及び時刻情報の通知を受けると、録画番組の再生開始位置をサーチするシーンサーチを行う(ステップS18)。
続いてコンテンツ再生部104は、サーチした番組の再生を行う(ステップS19)。
Upon receiving the notification of the program ID and time information, the content reproduction unit 104 performs a scene search for searching for the reproduction start position of the recorded program (step S18).
Subsequently, the content reproduction unit 104 reproduces the searched program (step S19).

より具体的には、コンテンツ再生部104は、コンテンツDB110にアクセスして上記の再生開始位置からコンテンツデータを順次読み出し、読み出したコンテンツデータに含まれるビデオ信号に応じた映像をディスプレイ14に表示させる。さらに、コンテンツ再生部104は、読み出したコンテンツデータに含まれるオーディオ信号に応じた音声をスピーカ15に出力させる。   More specifically, the content reproduction unit 104 accesses the content DB 110 to sequentially read content data from the above reproduction start position, and causes the display 14 to display a video corresponding to the video signal included in the read content data. Furthermore, the content reproduction unit 104 causes the speaker 15 to output sound corresponding to the audio signal included in the read content data.

以上の説明のように、本実施形態によれば、ユーザの嗜好を反映したシーン検索用キーワードを自動的に提示することができるので、ユーザは、リモートコントロール装置を用いて煩雑なキーワード入力操作を行う必要が無い。
さらに提示されるキーワードは、ユーザの嗜好が反映されているので、キーワードの選択操作を行うだけで、より自己の嗜好に沿った再生させたいシーンを選択することができ、使い勝手が向上する。
As described above, according to the present embodiment, a scene search keyword reflecting the user's preference can be automatically presented, so that the user can perform a complicated keyword input operation using the remote control device. There is no need to do it.
Furthermore, since the user's preference is reflected in the presented keyword, it is possible to select a scene to be reproduced according to his / her preference only by performing a keyword selection operation, and the usability is improved.

以上の説明は、コンテンツ(番組)の再生に、ユーザの嗜好が反映された自動提示されたキーワードを用いるものであったが、同じキーワードをユーザの嗜好を反映したコンテンツ推薦機能あるいは自動録画機能に用いるようにすることも可能である。   In the above description, the automatically presented keyword that reflects the user's preference is used for the reproduction of the content (program), but the same keyword is used for the content recommendation function or the automatic recording function that reflects the user's preference. It is also possible to use it.

ここで、コンテンツ推薦機能とは、ユーザがお気に入りのコンテンツ(番組)や、面白そうと興味をそそられるようなコンテンツを検索し、ユーザに推薦する機能である。
また自動録画機能とは、EPG情報を参照して、ユーザが指定していないコンテンツ(番組)についても録画を行って録画漏れを回避する機能である。
Here, the content recommendation function is a function for searching a user's favorite content (program) or content that is interesting and interesting and recommending it to the user.
The automatic recording function is a function of referring to the EPG information and recording contents (programs) not designated by the user to avoid omission of recording.

図11は、コンテンツ推薦機能及び自動録画機能を実現するための前処理の処理フローチャートである。
まずコンテンツ推薦機能及び自動録画機能が有効とされているとき、コンテンツ処理部100は、ユーザが指定した時間帯において、ユーザが指定したチャンネルの番組のコンテンツデータをコンテンツDB110に保存することとなるが、これと並行して所定のタイミング毎に図11の処理を行う。
FIG. 11 is a process flowchart of preprocessing for realizing the content recommendation function and the automatic recording function.
First, when the content recommendation function and the automatic recording function are enabled, the content processing unit 100 stores the content data of the program of the channel specified by the user in the content DB 110 in the time zone specified by the user. In parallel with this, the processing of FIG. 11 is performed at predetermined timings.

より詳細には、まず、キーワード選択履歴DB115を参照し(ステップS41)、所定の閾値(例えば、10回)を超える選択回数のキーワードがあるか否かを判別する(ステップS42)。   More specifically, first, the keyword selection history DB 115 is referred to (step S41), and it is determined whether or not there is a selected number of keywords exceeding a predetermined threshold (for example, 10 times) (step S42).

ステップS42の判別において、所定の閾値を超える選択回数のキーワードが無い場合には(ステップS42;No)、処理を終了し、通常動作に移行する。
ステップS42の判別において、所定の閾値を超える選択回数のキーワードがある場合には(ステップS42;Yes)、当該キーワードをユーザへの推奨対象コンテンツを選択する際に用いるキーワード(推奨対象コンテンツ選択キーワード)として追加する(ステップS43)。
If it is determined in step S42 that there is no keyword having a selected number exceeding the predetermined threshold (step S42; No), the process is terminated, and a normal operation is performed.
If it is determined in step S42 that there is a keyword whose number of selections exceeds a predetermined threshold (step S42; Yes), a keyword (recommendation target content selection keyword) used when selecting the keyword-recommended content for the user. (Step S43).

したがって、キーワードの追加以降は、録画済みのコンテンツに対応するEPG情報から抽出したEPGキーワードに推奨対象コンテンツ選択キーワードが含まれている場合に、当該録画済みのコンテンツをユーザに推奨コンテンツとして提示することとなる。   Therefore, after the addition of the keyword, when the recommended target content selection keyword is included in the EPG keyword extracted from the EPG information corresponding to the recorded content, the recorded content is presented to the user as the recommended content. It becomes.

さらに所定の閾値を超える選択回数のキーワードがある場合には、ユーザが指定した条件(チャンネル、時間帯等)以外のコンテンツであっても、当該キーワードを含むコンテンツを自動録画対象に設定する(ステップS44)。   Further, when there are keywords whose selection count exceeds a predetermined threshold, even if the content is other than the conditions (channel, time zone, etc.) specified by the user, the content including the keyword is set as an automatic recording target (step S44).

したがって、自動録画対象に設定された以降は、ユーザの嗜好に沿ったコンテンツが自動的に録画され、ユーザ録画DB116に追加されるようになるので、ユーザにとっては、嗜好性の高いコンテンツの視聴が行えるとともに、録画漏れを極力回避することが可能となる。   Therefore, after setting the automatic recording target, content according to the user's preference is automatically recorded and added to the user recording DB 116, so that the user can view content with high preference. It is possible to avoid recording omissions as much as possible.

以上説明した本実施形態においては、コンテンツ(番組)を視聴するにあたり、ユーザはキーワードリスト150に配置されたキーワードを選択することによって、容易に好みに応じた番組或いは番組のシーンを検索することができる。さらに、キーワードリスト150に配置されるキーワードは、ユーザが視聴中の番組の字幕或いは電子番組情報から抽出されるキーワードであるため、ユーザの嗜好を反映することができる。   In the present embodiment described above, when viewing content (program), the user can easily search for a program or program scene according to his / her preference by selecting a keyword arranged in the keyword list 150. it can. Furthermore, since the keywords arranged in the keyword list 150 are keywords extracted from the captions or electronic program information of the program that the user is viewing, the user's preference can be reflected.

本実施形態においては、ユーザが以前シーン検索のキーワードとして選択したキーワードの履歴に基づいてユーザに提示するキーワードが絞り込まれて、ユーザが視聴中の番組に関連するキーワードを配列したキーワードリスト150は、ユーザの嗜好をより的確に反映したキーワードを提示することができる。   In the present embodiment, the keyword list 150 in which keywords to be presented to the user are narrowed down based on the keyword history previously selected as the keyword for the scene search by the user and the keywords related to the program being viewed by the user are arranged. It is possible to present a keyword that more accurately reflects the user's preference.

(変形例)
上記実施形態に関するいくつかの変形例を挙げる。
上記実施形態においては、ユーザが現在(=第1時間)視聴しているコンテンツの一部(基準時刻に対応する所定の時間帯;第1部分)に対応する第1キーワードを抽出してキーワードリストとして表示していたが、ユーザが第1時間とは異なる第2時間(例えば、先週、前日等の基準時刻に対応する所定の時間帯;第2部分)に視聴中のコンテンツの第2部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第2キーワードを抽出し、ディスプレイ14に複数の第1キーワードと、複数の第2キーワードとを、同時にキーワードリスト群として表示するように構成することも可能である。
(Modification)
Several modifications related to the above embodiment will be described.
In the above embodiment, the keyword list is extracted by extracting the first keyword corresponding to a part of the content that the user is currently viewing (= first time) (predetermined time zone corresponding to the reference time; first portion). The second part of the content being viewed by the user during a second time different from the first time (for example, a predetermined time zone corresponding to a reference time such as last week or the previous day; second part) A plurality of second keywords to be presented to the user are extracted from the corresponding plurality of keywords using information corresponding to the content viewed or recorded by the user, and the display 14 displays the plurality of first keywords and the plurality of second keywords. Can be displayed as a keyword list group at the same time.

上記実施形態においては、電子機器の一例である映像情報記録再生装置について述べた。しかしながら、上記実施形態にて開示した映像情報記録再生装置に関する構成は、パーソナルコンピュータ、スマートフォン、タブレット等のコンテンツを視聴可能な他種の電子機器に適用することもできる。   In the above embodiment, the video information recording / reproducing apparatus which is an example of the electronic apparatus has been described. However, the configuration relating to the video information recording / reproducing apparatus disclosed in the above embodiment can also be applied to other types of electronic devices capable of viewing content such as personal computers, smartphones, and tablets.

上記実施形態においては、各データベース(DB)の構築、表示優先度の算出、キーワード抽出処理等を電子機器単体で行うような構成を採っていたが、ネットワークを介して電子機器に通信可能に接続されたサーバ(クラウドサーバを含む)により負荷の大きな処理を行うように構成することも可能である。   In the above embodiment, each database (DB) is constructed, display priority is calculated, keyword extraction processing, and the like are performed by the electronic device alone. However, it is connected to the electronic device via a network so that communication is possible. It is also possible to configure so that a heavy load is performed by a server (including a cloud server).

上記実施形態においては、ディジタル放送される番組の視聴や記録を処理の対象とした。しかしながら、映像情報記録再生装置による処理の対象は、アナログ放送される番組、光ディスクメディア等に記録された動画、或いはネットワークを介してダウンロードされる動画等の他種のコンテンツを含んでもよい。   In the above embodiment, viewing and recording of digitally broadcasted programs are targeted for processing. However, the target of processing by the video information recording / reproducing apparatus may include other types of content such as analog broadcast programs, moving images recorded on optical disc media, or moving images downloaded via a network.

上記実施形態においては、キーワード抽出やシーン検索に用いる字幕の一例として、クローズドキャプションを対象とした処理を説明した。しかしながら、キーワード抽出やシーン検索に用いる字幕は、映像と一体化した所謂オープンキャプションを含んでもよい。この場合、映像情報記録再生装置にオープンキャプションからの文字認識を実行する機能を設け、以下同様に処理するようにすればよい。   In the above embodiment, the processing for closed captions has been described as an example of captions used for keyword extraction and scene search. However, subtitles used for keyword extraction and scene search may include so-called open captions integrated with video. In this case, the video information recording / reproducing apparatus may be provided with a function for performing character recognition from open captions, and the same processing may be performed thereafter.

上記実施形態においては、映像情報記録再生装置は、ハードディスクドライブ1及びメディアドライブ2の双方を備える構成を採っていたが、ハードディスクドライブ1及びメディアドライブ2の何れか一方のみを備えてもよいし、これらに加えて、あるいはこれらの代わりに半導体メモリからなる記憶媒体等を備えてもよい。   In the above embodiment, the video information recording / reproducing apparatus has a configuration including both the hard disk drive 1 and the media drive 2, but may include only one of the hard disk drive 1 and the media drive 2, In addition to or instead of these, a storage medium made of a semiconductor memory may be provided.

上記実施形態においては、AV入力部5及びTVチューナ6から入力される信号がディジタルである場合を例示していたが、各信号はアナログであってもよい。各信号がアナログである場合、当該信号をディジタル信号に変換するためのA/Dコンバータをエンコーダ7等に設ければよい。   In the above embodiment, the case where the signals input from the AV input unit 5 and the TV tuner 6 are digital has been illustrated, but each signal may be analog. If each signal is analog, an A / D converter for converting the signal into a digital signal may be provided in the encoder 7 or the like.

上記実施形態においては、コンテンツDB110、字幕DB111、字幕キーワードDB112、EPG DB113、EPGキーワードDB114及びキーワード選択履歴DB115は、ハードディスクドライブ1に記憶されていたが、メディアドライブ2がデータを書き込み及び読み出し可能な光ディスクメディアに記憶するようにしてもよい。また、コンテンツDB110、字幕DB111、字幕キーワードDB112、EPG DB113、EPGキーワードDB114及びキーワード選択履歴DB115は、専用のプロセッサ、ハードウェアモジュールにより、構成されてもよい。   In the above embodiment, the content DB 110, the caption DB 111, the caption keyword DB 112, the EPG DB 113, the EPG keyword DB 114, and the keyword selection history DB 115 are stored in the hard disk drive 1, but the media drive 2 can write and read data. You may make it memorize | store in an optical disk medium. In addition, the content DB 110, the caption DB 111, the caption keyword DB 112, the EPG DB 113, the EPG keyword DB 114, and the keyword selection history DB 115 may be configured by a dedicated processor and a hardware module.

映像情報記録再生装置等のコンピュータを、コンテンツ処理部100、字幕処理部101、EPG処理部102、放送波処理部103、コンテンツ再生部104、キーワードリスト処理部106、シーンリスト処理部107、及び、OSD制御部108等として機能させるためのコンピュータプログラムは、コンピュータに予めインストールされた状態で譲渡されてもよいし、コンピュータ読取可能な記録媒体に記録された状態で譲渡されてもよい。また、このコンピュータプログラムは、ネットワークを介してコンピュータにダウンロードされてもよい。   A computer such as a video information recording / reproducing apparatus is connected to a content processing unit 100, a caption processing unit 101, an EPG processing unit 102, a broadcast wave processing unit 103, a content reproduction unit 104, a keyword list processing unit 106, a scene list processing unit 107, and The computer program for functioning as the OSD control unit 108 or the like may be transferred in a state where it is preinstalled in the computer, or may be transferred in a state where it is recorded on a computer-readable recording medium. The computer program may be downloaded to the computer via a network.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 ハードディスクドライブ
2 メディアドライブ
3 データプロセッサ
4 メモリ
5 AV入力部
6 TVチューナ
7 エンコーダ
8 フォーマッタ
9 デコーダ
10 Vミキサ
11 セレクタ
12 D/Aコンバータ
13 D/Aコンバータ
14 ディスプレイ
15 スピーカ
16 信号受信部
17 キー入力部
18 マイクロコンピュータ
19 リモートコントロール装置
100 コンテンツ処理部
101 字幕処理部
102 EPG処理部
103 放送波処理部
104 コンテンツ再生部
105 キーワード抽出処理部(抽出部)
106 キーワードリスト処理部(処理部)
107 シーンリスト処理部(処理部)
108 OSD制御部
110 コンテンツDB
111 字幕DB
112 字幕キーワードDB
114 EPGキーワードDB
115 キーワード選択履歴DB
116 ユーザ録画DB
117 キーワードDB
150 キーワードリスト
151 シーンリスト
KW1〜KW4 検索キーワード(選択対象キーワード)
X 映像情報記録再生装置
DESCRIPTION OF SYMBOLS 1 Hard disk drive 2 Media drive 3 Data processor 4 Memory 5 AV input part 6 TV tuner 7 Encoder 8 Formatter 9 Decoder 10 V mixer 11 Selector 12 D / A converter 13 D / A converter 14 Display 15 Speaker 16 Signal receiving part 17 Key input Unit 18 Microcomputer 19 Remote control device 100 Content processing unit 101 Subtitle processing unit 102 EPG processing unit 103 Broadcast wave processing unit 104 Content playback unit 105 Keyword extraction processing unit (extraction unit)
106 Keyword list processing unit (processing unit)
107 Scene list processing unit (processing unit)
108 OSD control unit 110 Content DB
111 Subtitle DB
112 Subtitle Keyword DB
114 EPG keyword DB
115 Keyword selection history DB
116 User recording DB
117 Keyword DB
150 Keyword List 151 Scene List KW1 to KW4 Search Keyword (Selection Target Keyword)
X video information recording and playback device

Claims (16)

ユーザが第1時間に視聴中のコンテンツの第1部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第1キーワードを抽出する抽出部と、
前記複数の第1キーワードを選択可能にユーザに提示する提示部と、
ユーザにより選択された第1キーワードを用いて、選択された第1キーワードに関連する情報を検索するための処理を行う処理部と、
を備えた電子機器。
Extraction that extracts a plurality of first keywords to be presented to the user from a plurality of keywords corresponding to the first part of the content that the user is viewing at the first time, using information corresponding to the content that the user has viewed or recorded. And
A presentation unit for selectively presenting the plurality of first keywords to the user;
A processing unit that performs processing for searching for information related to the selected first keyword using the first keyword selected by the user;
With electronic equipment.
前記抽出部は、ユーザの手動の操作により録画予約又は録画されたコンテンツに対応する情報に基づいて前記複数の第1キーワードを抽出する、
請求項1記載の電子機器。
The extraction unit extracts the plurality of first keywords based on information corresponding to a recording reservation or recorded content by a user's manual operation.
The electronic device according to claim 1.
前記ユーザが視聴中のコンテンツの部分に対応する複数のキーワードは、当該コンテンツの部分に含まれる字幕情報から抽出されるキーワードである、
請求項1または請求項2記載の電子機器。
The plurality of keywords corresponding to the part of the content being viewed by the user are keywords extracted from subtitle information included in the part of the content.
The electronic device according to claim 1 or 2.
前記処理部は、選択された第1キーワードを用いて、それぞれ複数のシーンを含む複数のコンテンツから、選択された第1キーワードに関連するシーンを検索するための処理を行う、
請求項1乃至請求項3のいずれかに記載の電子機器。
The processing unit performs a process for searching for a scene related to the selected first keyword from a plurality of contents each including a plurality of scenes using the selected first keyword.
The electronic device according to claim 1.
前記抽出部は、ユーザが前記第1時間とは異なる第2時間に視聴中のコンテンツの第2部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第2キーワードを抽出し、
前記提示部は、前記複数の第1キーワードと、前記複数の第2キーワードとを、同時に表示する、
請求項1乃至請求項4のいずれかに記載の電子機器。
The extraction unit uses a plurality of keywords corresponding to the second part of the content being viewed at a second time different from the first time by using information corresponding to the content viewed or recorded by the user. Extracting a plurality of second keywords to be presented to
The presenting unit displays the plurality of first keywords and the plurality of second keywords simultaneously.
The electronic device according to claim 1.
前記提示部は、各種情報を表示するディスプレイと、
前記選択対象キーワードを前記ディスプレイの表示画面に複数表示させる表示制御部と、
を備えた請求項1乃至請求項5のいずれかに記載の電子機器。
The presenting unit includes a display for displaying various information,
A display control unit for displaying a plurality of the selection target keywords on the display screen of the display;
The electronic device according to claim 1, further comprising:
ユーザが第1時間に視聴中のコンテンツの第1部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第1キーワードを抽出する抽出過程と、
前記複数の第1キーワードを選択可能にユーザに提示する提示過程と、
ユーザにより選択された第1キーワードを用いて、選択された第1キーワードに関連する情報を検索するための処理を行う処理過程と、
を備えた電子機器の制御方法。
Extraction that extracts a plurality of first keywords to be presented to the user from a plurality of keywords corresponding to the first part of the content that the user is viewing at the first time, using information corresponding to the content that the user has viewed or recorded. Process,
A presentation process for selectively presenting the plurality of first keywords to the user;
A process of performing processing for searching for information related to the selected first keyword using the first keyword selected by the user;
A method for controlling an electronic device comprising:
前記抽出過程において、ユーザの手動の操作により録画予約又は録画されたコンテンツに対応する情報に基づいて前記複数の第1キーワードを抽出する、
請求項7記載の電子機器の制御方法。
In the extraction process, the plurality of first keywords are extracted based on information corresponding to a recording reservation or recorded content by a user's manual operation.
The method for controlling an electronic device according to claim 7.
前記ユーザが視聴中のコンテンツの部分に対応する複数のキーワードは、当該コンテンツの部分に含まれる字幕情報から抽出されるキーワードである、
請求項7または請求項8記載の電子機器の制御方法。
The plurality of keywords corresponding to the part of the content being viewed by the user are keywords extracted from subtitle information included in the part of the content.
The method for controlling an electronic device according to claim 7 or 8.
前記処理過程において、選択された第1キーワードを用いて、それぞれ複数のシーンを含む複数のコンテンツから、選択された第1キーワードに関連するシーンを検索するための処理を行う、
請求項7乃至請求項9のいずれかに記載の電子機器の制御方法。
In the process, using the selected first keyword, a process for searching for a scene related to the selected first keyword from a plurality of contents each including a plurality of scenes is performed.
The method for controlling an electronic device according to claim 7.
前記抽出過程において、ユーザが前記第1時間とは異なる第2時間に視聴中のコンテンツの第2部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第2キーワードを抽出し、
前記提示過程において、前記複数の第1キーワードと、前記複数の第2キーワードとを、同時に表示する、
請求項7乃至請求項10のいずれかに記載の電子機器の制御方法。
In the extraction process, the user uses information corresponding to the content viewed or recorded by the user from a plurality of keywords corresponding to the second portion of the content being viewed at a second time different from the first time. Extracting a plurality of second keywords to be presented to
In the presenting process, the plurality of first keywords and the plurality of second keywords are simultaneously displayed.
The method for controlling an electronic device according to claim 7.
電子機器をコンピュータにより制御するための制御プログラムであって、
前記コンピュータを、
ユーザが第1時間に視聴中のコンテンツの第1部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第1キーワードを抽出する手段と、
前記複数の第1キーワードを選択可能にユーザに提示する手段と、
ユーザにより選択された第1キーワードを用いて、選択された第1キーワードに関連する情報を検索するための処理を行う手段と、
して機能させる制御プログラム。
A control program for controlling an electronic device by a computer,
The computer,
Means for extracting a plurality of first keywords to be presented to the user from a plurality of keywords corresponding to the first portion of the content being viewed by the user at the first time, using information corresponding to the content viewed or recorded by the user When,
Means for selectively presenting the plurality of first keywords to the user;
Means for performing a process for searching for information related to the selected first keyword using the first keyword selected by the user;
Control program to function.
前記第1キーワードを抽出する手段は、ユーザの手動の操作により録画予約又は録画されたコンテンツに対応する情報に基づいて前記複数の第1キーワードを抽出する、
請求項12記載の制御プログラム。
The means for extracting the first keyword extracts the plurality of first keywords based on information corresponding to a recording reservation or recorded content by a user's manual operation.
The control program according to claim 12.
前記ユーザが視聴中のコンテンツの部分に対応する複数のキーワードは、当該コンテンツの部分に含まれる字幕情報から抽出されるキーワードである、
請求項12または請求項13記載の制御プログラム。
The plurality of keywords corresponding to the part of the content being viewed by the user are keywords extracted from subtitle information included in the part of the content.
The control program according to claim 12 or claim 13.
前記処理を行う手段は、選択された第1キーワードを用いて、それぞれ複数のシーンを含む複数のコンテンツから、選択された第1キーワードに関連するシーンを検索するための処理を行う、
請求項12乃至請求項14のいずれかに記載の制御プログラム。
The means for performing the process performs a process for searching for a scene related to the selected first keyword from a plurality of contents each including a plurality of scenes using the selected first keyword.
The control program according to any one of claims 12 to 14.
前記抽出部は、ユーザが前記第1時間とは異なる第2時間に視聴中のコンテンツの第2部分に対応する複数のキーワードから、ユーザが視聴又は録画したコンテンツに対応する情報を用いて、ユーザに提示する複数の第2キーワードを抽出し、
前記提示部は、前記複数の第1キーワードと、前記複数の第2キーワードとを、同時に表示する、
請求項12乃至請求項15のいずれかに記載の制御プログラム。
The extraction unit uses a plurality of keywords corresponding to the second part of the content being viewed at a second time different from the first time by using information corresponding to the content viewed or recorded by the user. Extracting a plurality of second keywords to be presented to
The presenting unit displays the plurality of first keywords and the plurality of second keywords simultaneously.
The control program according to any one of claims 12 to 15.
JP2014134949A 2014-06-30 2014-06-30 Electronic apparatus, and control method and control program of the same Pending JP2016012894A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014134949A JP2016012894A (en) 2014-06-30 2014-06-30 Electronic apparatus, and control method and control program of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014134949A JP2016012894A (en) 2014-06-30 2014-06-30 Electronic apparatus, and control method and control program of the same

Publications (1)

Publication Number Publication Date
JP2016012894A true JP2016012894A (en) 2016-01-21

Family

ID=55229329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014134949A Pending JP2016012894A (en) 2014-06-30 2014-06-30 Electronic apparatus, and control method and control program of the same

Country Status (1)

Country Link
JP (1) JP2016012894A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113068077A (en) * 2020-01-02 2021-07-02 腾讯科技(深圳)有限公司 Subtitle file processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113068077A (en) * 2020-01-02 2021-07-02 腾讯科技(深圳)有限公司 Subtitle file processing method and device
CN113068077B (en) * 2020-01-02 2023-08-25 腾讯科技(深圳)有限公司 Subtitle file processing method and device

Similar Documents

Publication Publication Date Title
US9973807B2 (en) Apparatus, systems and methods for configuring a mosaic of video tiles
US8464295B2 (en) Interactive search graphical user interface systems and methods
US8453169B2 (en) Video output device and video output method
US20050144637A1 (en) Signal output method and channel selecting apparatus
EP1715685A2 (en) Broadcast program recorder
US20120278765A1 (en) Image display apparatus and menu screen displaying method
EP2865176A1 (en) Electronic device and video content reproduction method
JP2005051493A (en) Video recording and reproducing device and video recording and reproducing method
JP6301616B2 (en) Electronic device, electronic device control method, and scene control program
US20150071604A1 (en) Electronic Apparatus, Control Method, and Computer-Readable Storage Medium
US7783157B2 (en) Recording/reproducing apparatus
JP6266271B2 (en) Electronic device, electronic device control method, and computer program
JP2006339947A (en) Device and method for processing information and information processing program
JP2016012894A (en) Electronic apparatus, and control method and control program of the same
JP2007214708A (en) Video apparatus and method for creating program information using it
JP2007158441A (en) Program guide generating apparatus and program guide generating method
JP2006304323A (en) Video image search support method
JP2006025120A (en) Recording and reproducing device, and remote controller
KR101417007B1 (en) Display apparatus and method for controlling record
WO2022100273A1 (en) Receiving device and generation method
JP6290046B2 (en) Video apparatus and video apparatus control method
JP6966380B2 (en) Electronics and methods
JP7316983B2 (en) Receiving device and receiving device program
JP2011166252A (en) Television receiver
JP2007068042A (en) Receiving device and method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20161014