JP2012034235A - Video reproduction apparatus and video reproduction method - Google Patents

Video reproduction apparatus and video reproduction method Download PDF

Info

Publication number
JP2012034235A
JP2012034235A JP2010172750A JP2010172750A JP2012034235A JP 2012034235 A JP2012034235 A JP 2012034235A JP 2010172750 A JP2010172750 A JP 2010172750A JP 2010172750 A JP2010172750 A JP 2010172750A JP 2012034235 A JP2012034235 A JP 2012034235A
Authority
JP
Japan
Prior art keywords
keyword
video
keywords
display
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010172750A
Other languages
Japanese (ja)
Inventor
Tatsuya Uehara
龍也 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010172750A priority Critical patent/JP2012034235A/en
Publication of JP2012034235A publication Critical patent/JP2012034235A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video reproduction apparatus and a video reproduction method capable of making easy content acquisition of content data of a reproduction object.SOLUTION: The video reproduction apparatus comprises: separation means; keyword extraction means; reproduction means; display control means; and reproduction position changing means. The separation means separates video information and caption information from content data. The keyword extraction means extracts a keyword from caption information, and records it on a storage medium one by one with a display time of a caption including this keyword. The reproduction means decodes a video from the video information, and makes it to be displayed on a display screen. The display control means displays said one or more keywords recorded in the storage medium on the display screen side by side in the order of display time. The display position changing means changes a reproduction position by means of the reproduction means at a display time of a selected keyword among one or more keywords displayed on the display screen.

Description

本発明の実施の形態は、映像再生装置及び映像再生方法に関する。   Embodiments described herein relate generally to a video playback apparatus and a video playback method.

放送番組データには、ニュース、ドラマ、映画、スポーツ中継、教育、バラエティーといった様々なジャンルがあり、ユーザは様々な情報を視聴中の放送番組データから得ることができる。   Broadcast program data includes various genres such as news, drama, movie, sports broadcast, education, variety, and the user can obtain various information from the broadcast program data being viewed.

ここで、記録した放送番組データからキーワードを抽出して、該抽出したキーワードに対応する位置を再生位置とすることが考えられている。   Here, it is considered that a keyword is extracted from the recorded broadcast program data, and a position corresponding to the extracted keyword is set as a reproduction position.

特開2009―118158号公報JP 2009-118158 A

しかしながら、キーワードに応じて再生位置を決定するのみならず、キーワードを表示することにより、大まかな内容を把握したいというニーズもある。
そこで本発明の実施形態は、再生対象のコンテンツデータの内容把握を容易にすることのできる映像再生装置及び映像再生方法を提供することを目的とする。
However, there is a need not only to determine the reproduction position according to the keyword but also to grasp the rough contents by displaying the keyword.
Accordingly, an object of the embodiment of the present invention is to provide a video playback apparatus and a video playback method capable of facilitating the understanding of the content data to be played back.

実施形態によれば、映像再生装置は、分離手段と、キーワード抽出手段と、再生手段と、表示制御手段と、再生位置変更手段とを備える。分離手段は、コンテンツデータから映像情報と字幕情報とを分離する。キーワード抽出手段は、字幕情報からキーワードを抽出し、該キーワードを含む字幕の表示時刻と共に順次記憶媒体に記録する。再生手段は、映像情報から映像を復号し、表示画面に表示させる。表示制御手段は、記憶媒体に記録した1以上の前記キーワードを、表示時刻順に並べて表示画面上に表示する。表示位置変更手段は、表示画面上に表示された1以上のキーワードのうち、選択されたキーワードの表示時刻に、再生手段による再生位置を変更する。   According to the embodiment, the video reproduction apparatus includes a separation unit, a keyword extraction unit, a reproduction unit, a display control unit, and a reproduction position change unit. The separating means separates the video information and the caption information from the content data. The keyword extraction means extracts keywords from the caption information, and sequentially records them on a storage medium together with the display time of captions including the keywords. The reproduction means decodes the video from the video information and displays it on the display screen. The display control means displays the one or more keywords recorded on the storage medium in order of display time on the display screen. The display position changing means changes the reproduction position by the reproduction means at the display time of the selected keyword among one or more keywords displayed on the display screen.

また、実施形態によれば、映像再生方法は、コンテンツデータから前記映像情報と前記字幕情報とを分離し、前記字幕情報からキーワードを抽出して、該キーワードを含む字幕の表示時刻と共に順次記憶媒体に記録し、前記映像情報から映像を復号して表示画面に表示し、前記記憶媒体に記録した1以上の前記キーワードを、前記表示時刻順に並べて前記表示画面上に表示し、前記表示画面上に表示された1以上の前記キーワードのうち、選択されたキーワードの表示時刻に再生位置を変更する。   According to the embodiment, the video reproduction method separates the video information and the subtitle information from content data, extracts a keyword from the subtitle information, and sequentially stores the subtitles including the keyword together with a display time. The video information is decoded and displayed on the display screen, and the one or more keywords recorded in the storage medium are displayed on the display screen in order of the display time, and displayed on the display screen. Among the one or more displayed keywords, the playback position is changed at the display time of the selected keyword.

実施形態の映像再生装置の構成の一例を示す図。The figure which shows an example of a structure of the video reproduction apparatus of embodiment. 実施形態の映像再生装置が記憶するキーワード時刻対応表の一例を示す図。The figure which shows an example of the keyword time corresponding | compatible table which the video reproduction apparatus of embodiment memorize | stores. 実施形態の映像再生装置が生成する表示画面の一例を示す図。The figure which shows an example of the display screen which the video reproduction apparatus of embodiment produces | generates. 実施形態の映像再生装置が記憶するクラス辞書の一例を示す図。The figure which shows an example of the class dictionary which the video reproduction apparatus of embodiment memorize | stores. 実施形態の映像再生装置が記憶するジャンル対応表の一例を示す図。The figure which shows an example of the genre corresponding table which the video reproducing apparatus of embodiment memorize | stores. 実施形態の映像再生装置のキーワード抽出処理の流れの一例を示す図。The figure which shows an example of the flow of the keyword extraction process of the video reproduction apparatus of embodiment. 実施形態の映像再生装置の再生処理の流れの一例を示す図。The figure which shows an example of the flow of the reproduction | regeneration processing of the video reproduction apparatus of embodiment.

以下、実施の形態について、図面を参照しながら説明する。
まず、本実施の形態における映像再生装置の構成を、図1を参照しながら説明する。図1は、本実施の形態における映像再生装置1の構成を示す機能ブロック図である。
Hereinafter, embodiments will be described with reference to the drawings.
First, the configuration of the video playback apparatus in the present embodiment will be described with reference to FIG. FIG. 1 is a functional block diagram showing the configuration of the video playback apparatus 1 in the present embodiment.

映像再生装置1は、チューナ/復調部3と、TS(Transport Stream)分離部4と、録画制御部5と、記憶媒体6と、映像バッファ7と、字幕バッファ8と、データ放送用バッファ9と、音声バッファ10と、SI(Service Information:番組配列情報)処理部11と、PSI(Program Specific Information:番組特定情報)処理部12と、映像復号部13と、字幕復号部14と、データ放送処理部15と、音声復号部16と、表示メモリ17と、映像出力部18と、音声出力部19と、制御部20と、STC(System Time Clock)カウンタ21と、受信部22、キーワード抽出部23と、キーワードUI生成部24と、メモリ部25と、辞書部29とを有する。   The video playback apparatus 1 includes a tuner / demodulator 3, a TS (Transport Stream) separator 4, a recording controller 5, a storage medium 6, a video buffer 7, a caption buffer 8, and a data broadcast buffer 9. , An audio buffer 10, an SI (Service Information: Program Sequence Information) processing unit 11, a PSI (Program Specific Information) processing unit 12, a video decoding unit 13, a subtitle decoding unit 14, and a data broadcasting process Unit 15, audio decoding unit 16, display memory 17, video output unit 18, audio output unit 19, control unit 20, STC (System Time Clock) counter 21, reception unit 22, keyword extraction unit 23 And a keyword UI generation unit 24, a memory unit 25, and a dictionary unit 29. To.

チューナ/復調部3は、アンテナ2で受信した地上波デジタル放送、BSで自他売る放送及びCSデジタル放送等の中から任意のチャネルを選局し、この選局された放送信号を復調し、所望の番組を含むTS形式のデジタル信号を得てTS分離部4に出力する。   The tuner / demodulator 3 selects an arbitrary channel from among the terrestrial digital broadcast received by the antenna 2, the broadcast sold separately by the BS, the CS digital broadcast, etc., and demodulates the selected broadcast signal. A TS format digital signal including a desired program is obtained and output to the TS separator 4.

TS分離部4は、デジタル放送の表示(再生)を行う場合には、チューナ/復調部3から入力を受けた複数のTSを、映像信号、字幕信号、データ放送信号、音声信号に分離して各バッファへ出力する。   When displaying (reproducing) a digital broadcast, the TS separation unit 4 separates a plurality of TSs received from the tuner / demodulation unit 3 into a video signal, a caption signal, a data broadcast signal, and an audio signal. Output to each buffer.

また、TS分離部4は、デジタル放送の録画を行う場合には、再多重化されたTSを録画制御部5へ出力し、録画制御部5は受信したTSを1つのコンテンツデータとして、記憶媒体6へ格納する。   In addition, when recording digital broadcasting, the TS separation unit 4 outputs the remultiplexed TS to the recording control unit 5, and the recording control unit 5 uses the received TS as one content data as a storage medium. 6 is stored.

さらにTS分離部4は、録画したコンテンツデータを再生する際には、録画制御部5を介して記憶媒体6からコンテンツデータを読み込み、当該コンテンツデータとして入力を受けたTSを、映像信号、字幕信号、音声信号等に分離して各バッファへ出力する。   Further, when playing back the recorded content data, the TS separation unit 4 reads the content data from the storage medium 6 via the recording control unit 5 and converts the TS received as the content data into a video signal, a caption signal, and the like. , Separated into audio signals and the like and output to each buffer.

映像バッファ7、字幕バッファ8、データ放送用バッファ9、音声バッファ10は、それぞれTS分離部4で分離された映像信号、字幕信号、データ放送信号、音声信号を一時的に格納する。   The video buffer 7, subtitle buffer 8, data broadcast buffer 9, and audio buffer 10 temporarily store the video signal, subtitle signal, data broadcast signal, and audio signal separated by the TS separator 4, respectively.

SI処理部11及びPSI処理部12は、TS分離部4で分離されたSI情報及びPSI情報のそれぞれに適切なデジタル信号処理を施す。このデジタル信号処理が施されたSI情報及びPSI情報は、制御部20へ伝達され、制御部20で電子番組表等を構成して、映像出力部18から出力可能となる。   The SI processing unit 11 and the PSI processing unit 12 perform appropriate digital signal processing on each of the SI information and the PSI information separated by the TS separation unit 4. The SI information and the PSI information subjected to the digital signal processing are transmitted to the control unit 20, and the control unit 20 constitutes an electronic program guide and the like and can be output from the video output unit 18.

映像復号部13は、DTS(Decoding Time Stamp)に従って、映像バッファ7からの映像信号を読み出し、当該映像信号から映像へ復号する。
字幕復号部14は、DTSに従って字幕バッファ8から字幕信号を読出して字幕画像(以下、単に字幕とも称する)を生成する。
データ放送処理部15は、データ放送用バッファ9からBML(Broadcast Markup Language)等のデータ放送信号を読み出して適宜データ放送画面(画像)を生成する。
The video decoding unit 13 reads a video signal from the video buffer 7 according to DTS (Decoding Time Stamp), and decodes the video signal into the video.
The caption decoding unit 14 reads a caption signal from the caption buffer 8 according to the DTS and generates a caption image (hereinafter also simply referred to as caption).
The data broadcast processing unit 15 reads a data broadcast signal such as BML (Broadcast Markup Language) from the data broadcast buffer 9 and appropriately generates a data broadcast screen (image).

音声復号部16は、PTS(Presentation Time Stamp)に従って、音声バッファ10から音声信号を読出し、音声信号から音声出力信号を復号する。尚、音声の復号は復号時刻と出力時刻は同じであり、DTSは音声信号には含まれない。   The audio decoding unit 16 reads an audio signal from the audio buffer 10 and decodes an audio output signal from the audio signal in accordance with PTS (Presentation Time Stamp). Note that the decoding time and output time of audio decoding are the same, and the DTS is not included in the audio signal.

表示メモリ17は、映像復号部13及び字幕復号部14で復号された映像及び字幕(字幕画像)や、データ放送処理部15で生成されたデータ放送画面、後述するキーワードUI(User Interface)生成部24から出力されたUI画像を一時的に格納(記憶)する。   The display memory 17 includes a video and subtitle (caption image) decoded by the video decoding unit 13 and the subtitle decoding unit 14, a data broadcast screen generated by the data broadcast processing unit 15, and a keyword UI (User Interface) generation unit described later. The UI image output from 24 is temporarily stored (stored).

映像出力部18は、表示メモリ17に記憶された映像、字幕、データ放送画面、UI画像を合成して1つの表示画面とし、接続されているディスプレイに応じた映像出力信号として出力端子もしくは内蔵する表示装置へ出力する。   The video output unit 18 synthesizes the video, caption, data broadcast screen, and UI image stored in the display memory 17 to form one display screen, and is an output terminal or built-in as a video output signal corresponding to the connected display. Output to the display device.

音声出力部19は、PTSに応じて、音声復号部16から出力された音声出力信号を、出力端子もしくは内蔵するスピーカへと出力する。
制御部20は、受信部22で受信した、リモコンや操作ボタン等からの操作コマンドに応じて、映像再生装置1各部の動作を制御する。また、制御部20は、システムの時刻を掲示するカウンタとしてSTCカウンタ21を備える。音声出力部19や音声出力部19は、当該STCカウンタ21に従って映像出力信号や音声出力信号の出力を行う。
The audio output unit 19 outputs the audio output signal output from the audio decoding unit 16 to an output terminal or a built-in speaker according to the PTS.
The control unit 20 controls the operation of each unit of the video reproduction device 1 in accordance with the operation command received by the reception unit 22 from the remote controller, the operation button, or the like. Further, the control unit 20 includes an STC counter 21 as a counter for posting the system time. The audio output unit 19 and the audio output unit 19 output a video output signal and an audio output signal according to the STC counter 21.

受信部22は、映像再生装置1に対応するリモコン38(リモートコントローラ)や操作ボタン等からの操作入力に応じた操作コマンドを制御部20へと出力する。
キーワード抽出部23は、字幕バッファ8に記憶された字幕信号からキーワードを抽出する。より具体的には、字幕情報には、テキスト形式の字幕文字列と、表示するタイミングを示すPTS(表示用のタイムスタンプ)とが含まれる。キーワード抽出部23は、字幕文字列に対して形態素解析を実行し、単語に分解する。そして、当該単語の中から、辞書部29に記憶されたユーザが指定したユーザ辞書26やクラス辞書27、ジャンル対応表28に基づいて抽出すべきキーワードであるか否かを判別し、抽出すべきキーワードである場合には、当該キーワードをキーワードUI生成部24へと出力する。また、当該抽出すべきキーワードは、時刻情報(タイムスタンプ、及び後述する再生時刻に対応)と共に制御部20へと出力され、メモリ部25上にキーワード時刻対応表30として記憶される。
The receiving unit 22 outputs to the control unit 20 an operation command corresponding to an operation input from a remote controller 38 (remote controller) corresponding to the video reproduction device 1 or an operation button.
The keyword extraction unit 23 extracts keywords from the caption signal stored in the caption buffer 8. More specifically, the caption information includes a text-formatted caption character string and a PTS (display time stamp) indicating the display timing. The keyword extraction unit 23 performs morphological analysis on the subtitle character string and breaks it down into words. Then, it is determined whether or not the keyword is to be extracted based on the user dictionary 26, the class dictionary 27, and the genre correspondence table 28 specified by the user stored in the dictionary unit 29, and should be extracted. If it is a keyword, the keyword is output to the keyword UI generation unit 24. Further, the keyword to be extracted is output to the control unit 20 together with time information (corresponding to a time stamp and a reproduction time described later), and stored as a keyword time correspondence table 30 on the memory unit 25.

キーワード時刻対応表30の例を図2に示す。図2は、メモリ部25上に記憶されるキーワード時刻対応表30の例を示す図である。
図2に示すように、キーワード時刻対応表30では抽出されたキーワードと、その再生時刻とが対応づけられている。例えば、図2の例では、「青梅」というキーワードには再生時刻「00:10:23」が、「居酒屋」というキーワードには再生時刻「00:11:45」が対応づけられている。後述するキーワードUI生成部24が生成した表示画面(図3参照)上で「青梅」というキーワードがユーザにより選択されると、制御部20は、再生位置(録画制御部5が読出し、TS分離部4以降で再生(復号)される位置(時刻)。再生時刻とも称する)を、「00:10:23」に変更すべく制御をおこなう。尚、この「00:10:23」は、コンテンツデータの再生から10分23秒経過した位置であることを示す。
An example of the keyword time correspondence table 30 is shown in FIG. FIG. 2 is a diagram illustrating an example of the keyword time correspondence table 30 stored on the memory unit 25.
As shown in FIG. 2, the keyword time correspondence table 30 associates the extracted keyword with its reproduction time. For example, in the example of FIG. 2, the reproduction time “00:10:23” is associated with the keyword “Ome”, and the reproduction time “00:11:45” is associated with the keyword “Izakaya”. When the keyword “Ome” is selected by the user on the display screen (see FIG. 3) generated by the keyword UI generation unit 24 described later, the control unit 20 reads the playback position (the recording control unit 5 reads and the TS separation unit). Control is performed to change the position (time) (also referred to as playback time) to be reproduced (decoded) after 4 to “00:10:23”. Note that “00:10:23” indicates that 10 minutes and 23 seconds have elapsed since the reproduction of the content data.

キーワードUI生成部24は、キーワード抽出部23の指示に従い、メモリ部25に記憶されたキーワード時刻対応表30に格納された当該キーワードに基づき、時系列順にキーワードを複数並べたUI画面を生成し、映像出力部18を介して表示メモリ17上に描画される。   The keyword UI generation unit 24 generates a UI screen in which a plurality of keywords are arranged in chronological order based on the keywords stored in the keyword time correspondence table 30 stored in the memory unit 25 in accordance with an instruction from the keyword extraction unit 23. The image is drawn on the display memory 17 via the video output unit 18.

図3は、キーワードUI生成部24が生成する表示画面の例を示す図である。表示画面31は、大きく分けて、映像表示領域32と、キーワード表示領域33とに分けることができる。映像表示領域32には、再生中の映像(映像復号部13が復号した映像及び字幕復号部14が復号した字幕画像を重畳した映像)が表示される。   FIG. 3 is a diagram illustrating an example of a display screen generated by the keyword UI generation unit 24. The display screen 31 can be roughly divided into a video display area 32 and a keyword display area 33. In the video display area 32, the video being played back (video obtained by superimposing the video decoded by the video decoding unit 13 and the subtitle image decoded by the subtitle decoding unit 14) is displayed.

キーワード表示領域33は、映像表示領域32上に重畳される画像であって、キーワードUI生成部24が生成するUI画像が表示される。
キーワード表示領域33上には、キーワードボタン34A乃至34Nが選択可能に配置される。キーワードボタン34A乃至34Nは、リモコン38等により入力される操作コマンドに応じて操作可能なカーソル35を移動させることにより選択することが可能である。
The keyword display area 33 is an image that is superimposed on the video display area 32, and displays a UI image generated by the keyword UI generation unit 24.
On the keyword display area 33, keyword buttons 34A to 34N are arranged to be selectable. The keyword buttons 34A to 34N can be selected by moving an operable cursor 35 in accordance with an operation command input from the remote controller 38 or the like.

また、キーワード抽出部23により抽出されたキーワードをキーワード表示領域33上に表示しきれない場合には、続きがあることを示すアイコン36をキーワードボタン34列の右端又は/及び左端に表示(配置)する。このアイコン36上にカーソル35を移動させると、キーワードボタン34列が右側又は左側に移動して表示されていなかったキーワードボタン34が出現する。   When the keywords extracted by the keyword extraction unit 23 cannot be displayed on the keyword display area 33, an icon 36 indicating that there is a continuation is displayed (arranged) at the right end or / and the left end of the keyword button 34 row. To do. When the cursor 35 is moved on the icon 36, the keyword buttons 34 that have not been displayed appear as the keyword button 34 row moves to the right or left.

また、本実施形態の変形例として、カーソル35が位置しているキーワードボタン34の再生時刻における映像再生画面を表示するサムネイル37を併せて表示するとしても良い。キーワードとサムネイル37を同時に表示することで、キーワードが出現する場面を一見して認識することができる。   As a modification of the present embodiment, a thumbnail 37 that displays a video playback screen at the playback time of the keyword button 34 where the cursor 35 is located may be displayed together. By displaying the keyword and the thumbnail 37 at the same time, the scene where the keyword appears can be recognized at a glance.

辞書部29は、ユーザ辞書26、クラス辞書27、及びジャンル対応表28を記憶する。上述の通り、キーワード抽出部23は、辞書部29に記憶されたクラス辞書27やジャンル対応表28を参照して、キーワード抽出処理を行う。   The dictionary unit 29 stores a user dictionary 26, a class dictionary 27, and a genre correspondence table 28. As described above, the keyword extraction unit 23 performs keyword extraction processing with reference to the class dictionary 27 and the genre correspondence table 28 stored in the dictionary unit 29.

クラス辞書27の例を図4に示す。図4は、辞書部29上に記憶されるクラス辞書27の例を示す図である。
クラス辞書27は、図4に示すように単語がクラスに対応づけられている。ここで、クラスは単語の意味ラベルである。図4の例では、「青梅」という単語にクラス(「青梅」という単語の意味)「地名」が、「居酒屋」という単語にクラス「店の種類」が対応づけられている。キーワード抽出部23は、当該クラス辞書27を参照することにより、登録されている単語のクラス(意味)を得ることができる。
An example of the class dictionary 27 is shown in FIG. FIG. 4 is a diagram illustrating an example of the class dictionary 27 stored on the dictionary unit 29.
In the class dictionary 27, as shown in FIG. 4, words are associated with classes. Here, a class is a semantic label of a word. In the example of FIG. 4, a class (meaning the word “Ome”) “place name” is associated with the word “Ome”, and a class “store type” is associated with the word “izakaya”. The keyword extraction unit 23 can obtain a registered word class (meaning) by referring to the class dictionary 27.

ジャンル対応表の例を図5に示す。図5は、メモリ部25上に記憶されるジャンル対応表28の例を示す図である。
ジャンル対応表28は、コンテンツデータのジャンルと、そこで抽出されるべき単語のクラスとを対応づけている。図5の例では、例えばコンテンツデータのジャンルが「ニュース」である場合には、抽出されるべき単語のクラスが「地名」「人名」「国名」「事件名」「会社名」であることが、ジャンルが「料理」である場合には、抽出されるべき単語のクラスが「料理名」「調理方法」「国名」であることがわかる。キーワード抽出部23は、抽出した単語のクラスをクラス辞書27を参照して調べると共に、当該単語のクラスがコンテンツデータのジャンルにおいて抽出されるべきクラスであるかどうかを調べる。抽出した単語のクラスが、コンテンツデータのジャンルにおいて抽出されるべきクラスである場合には、当該単語をキーワードとして当該単語を抽出し、時刻情報と共に制御部20を介してメモリ部25に出力すると共に、キーワードUI生成部24へ描画指示を行う。
An example of the genre correspondence table is shown in FIG. FIG. 5 is a diagram showing an example of the genre correspondence table 28 stored on the memory unit 25.
The genre correspondence table 28 associates the genre of the content data with the class of words to be extracted there. In the example of FIG. 5, for example, when the genre of the content data is “news”, the class of words to be extracted may be “place name”, “person name”, “country name”, “case name”, and “company name”. When the genre is “cooking”, it is understood that the class of words to be extracted is “cooking name”, “cooking method”, and “country name”. The keyword extraction unit 23 checks the extracted word class with reference to the class dictionary 27 and checks whether the word class is a class to be extracted in the genre of the content data. When the extracted word class is a class to be extracted in the genre of the content data, the word is extracted using the word as a keyword, and is output to the memory unit 25 via the control unit 20 together with time information. Then, a drawing instruction is given to the keyword UI generation unit 24.

尚、各コンテンツデータのジャンルは、当該コンテンツデータが放送番組である場合には、放送信号に重畳されるPSIから取得することができる他、図示しないインターネット経由で取得するようにしても良い。   In addition, when the content data is a broadcast program, the genre of each content data can be acquired from the PSI superimposed on the broadcast signal, or may be acquired via the Internet (not shown).

続いて、図6を参照しながら、キーワード抽出に係る処理の流れを示す。図6は、キーワード抽出部23によるキーワード抽出の処理の流れを示す図である。図6の処理は、字幕バッファ8上に展開される字幕情報毎に行われる。また、キーワード抽出処理は、記憶媒体6へのコンテンツデータの録画時に実行しても良いし、コンテンツデータの視聴時に実行しても良い。さらに、コンテンツデータ録画後に、キーワード抽出処理のみを独立して実行しておき、当該実行結果をメモリ部25にキーワード時刻対応表30として記憶しておくことにより、再生時に当該キーワード時刻対応表30に応じたUIをキーワードUI生成部24が生成できるようにしても良い。   Next, the flow of processing related to keyword extraction will be described with reference to FIG. FIG. 6 is a diagram showing the flow of keyword extraction processing by the keyword extraction unit 23. The process of FIG. 6 is performed for each caption information developed on the caption buffer 8. The keyword extraction process may be executed when the content data is recorded on the storage medium 6 or may be executed when the content data is viewed. Further, after the content data recording, only the keyword extraction process is executed independently, and the execution result is stored in the memory unit 25 as the keyword time correspondence table 30, so that the keyword time correspondence table 30 is reproduced during reproduction. The corresponding UI may be generated by the keyword UI generation unit 24.

まず、キーワード抽出部23は字幕バッファ8から読み込んだ字幕情報に含まれる文字列に対し、形態素解析を行い、単語に分解する(S11)。次に、抽出された各単語の中から1単語抽出し(S12)、S13乃至S17の処理を行う。   First, the keyword extraction unit 23 performs morphological analysis on the character string included in the caption information read from the caption buffer 8 and breaks it down into words (S11). Next, one word is extracted from the extracted words (S12), and the processes of S13 to S17 are performed.

まず、抽出した単語が記号(括弧やクオーテーション等)で囲まれているか否かを調べる(S13)。これは、例えば「青梅駅前にある『○○屋』」等の字幕の場合、クオーテーションで囲まれた「○○屋」は重要な単語である可能性が高く、当該重要な単語はキーワードとして抽出すべきだからである。もし、抽出した単語が記号で囲まれている場合には(S13のYes)、当該単語をキーワードとして登録(抽出)する(S17)。   First, it is checked whether or not the extracted word is surrounded by symbols (such as parentheses and quotations) (S13). This is because, for example, in the case of subtitles such as “Oya Station” in front of Ome Station, “Oya” surrounded by quotations is likely to be an important word, and the important word is used as a keyword. This is because it should be extracted. If the extracted word is surrounded by symbols (Yes in S13), the word is registered (extracted) as a keyword (S17).

抽出した単語が記号で囲まれていない場合には(S13のNo)、当該単語がユーザ辞書26に登録されているか否かを確認する(S14)。ユーザ辞書26は、ユーザが任意にキーワードを登録するための辞書であり、例えば辞書部29上に記憶されている。キーワード抽出部23は、ユーザ辞書26に登録されている単語については、無条件にキーワードとして抽出するものとする。よって、S12で抽出した単語がユーザ辞書26に登録されている場合には(S14のYes)、当該単語をキーワードとして登録(抽出)する(S17)。   If the extracted word is not surrounded by symbols (No in S13), it is confirmed whether or not the word is registered in the user dictionary 26 (S14). The user dictionary 26 is a dictionary for the user to arbitrarily register keywords, and is stored on the dictionary unit 29, for example. The keyword extraction unit 23 unconditionally extracts words registered in the user dictionary 26 as keywords. Therefore, when the word extracted in S12 is registered in the user dictionary 26 (Yes in S14), the word is registered (extracted) as a keyword (S17).

抽出した単語がクラス辞書に登録されていない場合には(S14のNo)、当該単語がクラス辞書27に登録されているか否かを調べる(S15)。抽出した単語がクラス辞書27に登録されている場合には(S15のYes)、再生中のコンテンツデータのジャンルを調べ、ジャンル対応表28を参照することにより、抽出した単語のクラスが、コンテンツデータのジャンルにおいて抽出されるべきクラスであるか否かを調べる(S16)。抽出した単語のクラスが、コンテンツデータのジャンルにおいて抽出されるべきクラスである場合には(S16のYes)、当該単語をキーワードとして登録(抽出)する(S17)。ここで、S17のキーワードとして登録する処理は、キーワードとして抽出された単語をキーワードとして再生時刻と共にキーワード時刻対応表30へ登録すると共に、キーワードUI生成部24に描画指示処理を含むことができる。   If the extracted word is not registered in the class dictionary (No in S14), it is checked whether or not the word is registered in the class dictionary 27 (S15). If the extracted word is registered in the class dictionary 27 (Yes in S15), the genre of the content data being reproduced is checked, and the genre correspondence table 28 is referred to, so that the class of the extracted word is the content data. It is checked whether or not the class should be extracted in the genre (S16). If the extracted word class is a class to be extracted in the genre of the content data (Yes in S16), the word is registered (extracted) as a keyword (S17). Here, the process of registering as a keyword in S17 can register a word extracted as a keyword in the keyword time correspondence table 30 together with the reproduction time as a keyword, and can include a drawing instruction process in the keyword UI generating unit 24.

抽出した単語がクラス辞書27に登録されていない場合(S15のNo)、若しくは抽出した単語のクラスが、コンテンツデータのジャンルにおいて抽出されるべきクラスでない場合(S16のNo)、若しくはキーワード登録すべき単語の登録をした場合、現在抽出している単語が、形態素解析を行った字幕情報に含まれる文字列の最後の単語であるか否かを判別する(S18)。   If the extracted word is not registered in the class dictionary 27 (No in S15), or if the extracted word class is not a class to be extracted in the genre of content data (No in S16), or a keyword should be registered When the word is registered, it is determined whether or not the currently extracted word is the last word of the character string included in the caption information subjected to morphological analysis (S18).

抽出した単語が字幕中の最後の単語である場合(S18のYes)、本キーワード抽出処理手順を終了する。一方、抽出した単語が字幕中の最後の単語でない場合(S18のNo)、ステップS12に戻り上記のキーワード抽出処理を繰り返す。   When the extracted word is the last word in the caption (Yes in S18), the keyword extraction processing procedure is terminated. On the other hand, if the extracted word is not the last word in the caption (No in S18), the process returns to step S12 and the above keyword extraction process is repeated.

続いて、図7を参照しながら、キーワードが選択された場合の再生処理の流れを示す。図7は、制御部20によるキーワード選択に係る再生処理の流れを示す図である。   Next, the flow of reproduction processing when a keyword is selected will be described with reference to FIG. FIG. 7 is a diagram showing a flow of reproduction processing related to keyword selection by the control unit 20.

まず、制御部20はユーザ操作により入力される操作コマンドを受信し、キーワードボタン34の何れかが選択されたか否かを判別する(S21)。キーワードボタン34が選択されていない場合(S21のNo)、制御部20は映像の再生を続行し(ステップS22)、本キーワード選択に係る再生処理を終了する。   First, the control unit 20 receives an operation command input by a user operation, and determines whether any of the keyword buttons 34 has been selected (S21). If the keyword button 34 has not been selected (No in S21), the control unit 20 continues to play back the video (step S22), and ends the playback process related to this keyword selection.

一方、キーワードボタン34が選択された場合(S21のYes)、制御部20は再生を一時停止するべくTS分離部4及び録画制御部5を制御する(S23)。次に、制御部20はカーソル34により示された選択されたキーワードをキーワード時刻対応表30から探索し、当該キーワードと対応づけられて記憶されている再生時刻情報を取得する(S24)。次に、制御部20は、取得した再生時刻情報の示す再生時刻から映像データの再生を開始する(S25)。以上で、本キーワード選択に係る再生処理を終了する。   On the other hand, when the keyword button 34 is selected (Yes in S21), the control unit 20 controls the TS separation unit 4 and the recording control unit 5 to pause the reproduction (S23). Next, the control unit 20 searches the keyword time correspondence table 30 for the selected keyword indicated by the cursor 34, and obtains reproduction time information stored in association with the keyword (S24). Next, the control unit 20 starts reproduction of the video data from the reproduction time indicated by the acquired reproduction time information (S25). Thus, the reproduction process related to this keyword selection is completed.

尚、上記の実施形態においては、キーワード選択がされた場合に映像の再生を一時停止する(S23)としたが、これに限定されることはない。例えば、カーソルの移動に併せて早送り/巻き戻しを実行するとしても良いし、再生を続行するとしても良い。   In the above embodiment, the video playback is paused when a keyword is selected (S23). However, the present invention is not limited to this. For example, fast forward / rewind may be executed in accordance with the movement of the cursor, or playback may be continued.

以上説明したように、本実施形態によれば、再生対象のコンテンツデータの内容把握を容易にすることが可能となる。ユーザが注目するキーワードの抽出条件に基づき、再生中コンテンツの字幕情報から当該キーワードを抽出し、抽出したキーワードを時系列順に並べたUIをコンテンツの再生画面と併せて表示する。従って、例えば再生中のコンテンツのある時間を見逃した場合、時系列順に並んで表示されるキーワード列を確認することで見逃した場面の内容の予想が可能となる。またキーワード列に再び確認したい内容を示すものがあれば、当該キーワードを選択することで巻き戻し動作を迅速に行うことができる。また、キーワード列を一覧することでコンテンツの内容を把握することができるので、録画済みのコンテンツを全て再生すること無しにユーザが視聴を所望する位置からの再生が可能となり操作性の向上を図ることができる。   As described above, according to the present embodiment, it is possible to easily understand the content data to be reproduced. Based on the extraction condition of the keyword focused by the user, the keyword is extracted from the caption information of the content being played back, and a UI in which the extracted keywords are arranged in time series is displayed together with the content playback screen. Therefore, for example, when a certain time of content being reproduced is missed, it is possible to predict the contents of the missed scene by confirming the keyword string displayed in chronological order. If there is a keyword string indicating the content to be confirmed again, the rewinding operation can be quickly performed by selecting the keyword. In addition, since the content of the content can be grasped by listing the keyword strings, it is possible to reproduce from the position where the user desires to view without reproducing all the recorded content, thereby improving the operability. be able to.

尚、実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を構成できる。例えば、実施形態に示される前構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合わせても良い。   It should be noted that the embodiment is not limited as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Further, various inventions can be configured by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from the previous components shown in the embodiment. Furthermore, you may combine the component covering different embodiment suitably.

1…映像再生装置、2…アンテナ、3…チューナ/復調部、4…TS分離部、5…録画制御部、6…記憶媒体、7…映像バッファ、8…字幕バッファ、9…データ放送用バッファ、10…音声バッファ、11…SI処理部、12…PSI処理部、13…映像復号部、14…字幕復号部、15…データ放送処理部、16…音声復号部、17…表示メモリ、18…映像出力部、19…音声出力部、20…制御部、21…STCカウンタ、22…受信部、23…キーワード抽出部、24…キーワードUI生成部、25…メモリ部、26…ユーザ辞書、27…クラス辞書、28…ジャンル対応表、29…辞書部、30…キーワード時刻対応表、31…表示画面、32…映像表示領域、33…キーワード表示領域、34A〜34N…キーワードボタン、35…カーソル、36…アイコン、37…サムネイル、38…リモコン。   DESCRIPTION OF SYMBOLS 1 ... Video reproduction apparatus, 2 ... Antenna, 3 ... Tuner / demodulation part, 4 ... TS separation part, 5 ... Recording control part, 6 ... Storage medium, 7 ... Video buffer, 8 ... Subtitle buffer, 9 ... Buffer for data broadcasting DESCRIPTION OF SYMBOLS 10 ... Audio buffer, 11 ... SI processing part, 12 ... PSI processing part, 13 ... Video decoding part, 14 ... Subtitle decoding part, 15 ... Data broadcast processing part, 16 ... Audio decoding part, 17 ... Display memory, 18 ... Video output unit, 19 ... audio output unit, 20 ... control unit, 21 ... STC counter, 22 ... receiving unit, 23 ... keyword extraction unit, 24 ... keyword UI generation unit, 25 ... memory unit, 26 ... user dictionary, 27 ... Class dictionary, 28 ... Genre correspondence table, 29 ... Dictionary section, 30 ... Keyword time correspondence table, 31 ... Display screen, 32 ... Video display area, 33 ... Keyword display area, 34A-34N ... Keyword button, 5 ... cursor, 36 ... icon, 37 ... thumbnail, 38 ... remote control.

Claims (12)

コンテンツデータから映像情報と字幕情報とを分離する分離手段と、
前記字幕情報からキーワードを抽出し、該キーワードを含む字幕の表示時刻と共に順次記憶媒体に記録するキーワード抽出手段と、
前記映像情報から映像を復号し、表示画面に表示させる再生手段と、
前記記憶媒体に記録した1以上の前記キーワードを、前記表示時刻順に並べて前記表示画面上に表示する表示制御手段と、
前記表示画面上に表示された1以上の前記キーワードのうち、選択されたキーワードの表示時刻に、前記再生手段による再生位置を変更する再生位置変更手段と
を備える映像再生装置。
Separating means for separating video information and subtitle information from content data;
Keyword extracting means for extracting a keyword from the subtitle information and sequentially recording it on a storage medium together with a display time of a subtitle including the keyword;
Playback means for decoding video from the video information and displaying it on a display screen;
Display control means for displaying the one or more keywords recorded in the storage medium in order of the display time and displaying them on the display screen;
A video playback device comprising playback position changing means for changing a playback position by the playback means at a display time of a selected keyword among the one or more keywords displayed on the display screen.
前記表示制御手段は、前記再生手段により得られる前記映像と前記1以上のキーワードとを同時に表示する、請求項1記載の映像再生装置。   The video playback apparatus according to claim 1, wherein the display control unit simultaneously displays the video obtained by the playback unit and the one or more keywords. 前記記録手段は、録画された前記コンテンツデータを対象に、前記キーワードと前記表示時刻とを前記記憶媒体に記録する、請求項1記載の映像再生装置。   The video reproducing apparatus according to claim 1, wherein the recording unit records the keyword and the display time on the storage medium for the recorded content data. 前記キーワード抽出手段が抽出するキーワードを変更する変更手段を更に備える、請求項1記載の映像再生装置。   The video reproducing apparatus according to claim 1, further comprising changing means for changing a keyword extracted by the keyword extracting means. 前記変更手段は、前記コンテンツデータのジャンルに従って、抽出するキーワードを変更することを特徴とする請求項4記載の映像再生装置。   5. The video reproducing apparatus according to claim 4, wherein the changing unit changes a keyword to be extracted according to a genre of the content data. 前記表示制御手段は、前記1以上のキーワードを、該キーワードの表示時刻に対応するサムネイルと共に表示する、請求項1記載の映像再生装置。   The video playback apparatus according to claim 1, wherein the display control unit displays the one or more keywords together with thumbnails corresponding to display times of the keywords. コンテンツデータから前記映像情報と前記字幕情報とを分離し、
前記字幕情報からキーワードを抽出して、該キーワードを含む字幕の表示時刻と共に順次記憶媒体に記録し、
前記映像情報から映像を復号して表示画面に表示し、
前記記憶媒体に記録した1以上の前記キーワードを、前記表示時刻順に並べて前記表示画面上に表示し、
前記表示画面上に表示された1以上の前記キーワードのうち、選択されたキーワードの表示時刻に再生位置を変更する、映像再生方法。
Separating the video information and the caption information from content data;
Extract keywords from the caption information, and sequentially record them on a storage medium together with the display time of captions containing the keywords,
Decoding video from the video information and displaying it on the display screen,
Displaying one or more of the keywords recorded in the storage medium on the display screen in order of the display time;
A video playback method, wherein a playback position is changed at a display time of a selected keyword among the one or more keywords displayed on the display screen.
前記映像と前記1以上のキーワードとを同時に表示する、請求項7記載の映像再生方法。   The video playback method according to claim 7, wherein the video and the one or more keywords are displayed simultaneously. 録画された前記コンテンツデータを対象に、前記キーワードと前記表示時刻とを前記記憶媒体に記録する、請求項7記載の映像再生方法。   The video reproduction method according to claim 7, wherein the keyword and the display time are recorded on the storage medium for the recorded content data. 抽出するキーワードを変更可能な請求項7記載の映像再生方法。   The video reproduction method according to claim 7, wherein a keyword to be extracted can be changed. 前記変更手段は、前記コンテンツデータのジャンルに従って、抽出するキーワードを変更することを特徴とする請求項4記載の映像再生装置。   5. The video reproducing apparatus according to claim 4, wherein the changing unit changes a keyword to be extracted according to a genre of the content data. 前記表示制御手段は、前記1以上のキーワードを、該キーワードの表示時刻に対応するサムネイルと共に表示する、請求項1記載の映像再生装置。   The video playback apparatus according to claim 1, wherein the display control unit displays the one or more keywords together with thumbnails corresponding to display times of the keywords.
JP2010172750A 2010-07-30 2010-07-30 Video reproduction apparatus and video reproduction method Pending JP2012034235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010172750A JP2012034235A (en) 2010-07-30 2010-07-30 Video reproduction apparatus and video reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010172750A JP2012034235A (en) 2010-07-30 2010-07-30 Video reproduction apparatus and video reproduction method

Publications (1)

Publication Number Publication Date
JP2012034235A true JP2012034235A (en) 2012-02-16

Family

ID=45847097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010172750A Pending JP2012034235A (en) 2010-07-30 2010-07-30 Video reproduction apparatus and video reproduction method

Country Status (1)

Country Link
JP (1) JP2012034235A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053588A (en) * 2013-09-06 2015-03-19 株式会社東芝 Electronic apparatus, control method for electronic apparatus and information storage medium
JP2016213606A (en) * 2015-05-01 2016-12-15 日本放送協会 Program playback device and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272463A (en) * 2006-03-30 2007-10-18 Toshiba Corp Information retrieval device, information retrieval method, and information retrieval program
JP2008061120A (en) * 2006-09-01 2008-03-13 Sony Corp Reproducing apparatus, retrieving method and program
JP2008148077A (en) * 2006-12-12 2008-06-26 Hitachi Ltd Moving picture playback device
JP2009010797A (en) * 2007-06-29 2009-01-15 Hitachi Ltd Information presenting method and apparatus
JP2010161722A (en) * 2009-01-09 2010-07-22 Sony Corp Data processing apparatus and method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272463A (en) * 2006-03-30 2007-10-18 Toshiba Corp Information retrieval device, information retrieval method, and information retrieval program
JP2008061120A (en) * 2006-09-01 2008-03-13 Sony Corp Reproducing apparatus, retrieving method and program
JP2008148077A (en) * 2006-12-12 2008-06-26 Hitachi Ltd Moving picture playback device
JP2009010797A (en) * 2007-06-29 2009-01-15 Hitachi Ltd Information presenting method and apparatus
JP2010161722A (en) * 2009-01-09 2010-07-22 Sony Corp Data processing apparatus and method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053588A (en) * 2013-09-06 2015-03-19 株式会社東芝 Electronic apparatus, control method for electronic apparatus and information storage medium
JP2016213606A (en) * 2015-05-01 2016-12-15 日本放送協会 Program playback device and program

Similar Documents

Publication Publication Date Title
CN1984291B (en) Method for performing time-shift function and television receiver using the same
KR101161702B1 (en) Method and apparatus for navigating through subtitles of an audio video data stream
KR101111537B1 (en) Apparatus and method for supporting viewing and listening
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
US20070040936A1 (en) Method of searching scenes recorded in PVR and television receiver using the same
US8965184B2 (en) Video-recording/reproducing apparatus and video-recording/reproducing method
JP2004080476A (en) Digital video reproducing device
JP2006245907A (en) Broadcast recording and reproducing apparatus
JP2009004872A (en) One-segment broadcast receiver, one-segment broadcast receiving method and medium recording one-segment broadcast receiving program
JP3772449B2 (en) Apparatus and method for recording / reproducing television program
JP4929128B2 (en) Recording / playback device
JP2012034235A (en) Video reproduction apparatus and video reproduction method
JP2008092403A (en) Reproduction supporting device, reproduction apparatus, and reproduction method
JP5033653B2 (en) Video recording / reproducing apparatus and video reproducing apparatus
JP5143269B1 (en) Content output apparatus and content output method
JP5554195B2 (en) Content recording / playback device
KR100752877B1 (en) Method for outputting record list in picture display device
JP2014207619A (en) Video recording and reproducing device and control method of video recording and reproducing device
JP5286136B2 (en) Digital broadcast receiver
JP2015053588A (en) Electronic apparatus, control method for electronic apparatus and information storage medium
JP2011065405A (en) Display device and display method
KR20110011317A (en) Broadcast receiver and method of searching image time-shifted
JP2010183165A (en) Apparatus and method for switching subtitle
JP2015039060A (en) Video recording/reproducing device
JP2015038652A (en) Digital broadcast receiver

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130425

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141125