JP2011065405A - Display device and display method - Google Patents

Display device and display method Download PDF

Info

Publication number
JP2011065405A
JP2011065405A JP2009215329A JP2009215329A JP2011065405A JP 2011065405 A JP2011065405 A JP 2011065405A JP 2009215329 A JP2009215329 A JP 2009215329A JP 2009215329 A JP2009215329 A JP 2009215329A JP 2011065405 A JP2011065405 A JP 2011065405A
Authority
JP
Japan
Prior art keywords
moving image
phrase
text data
search
telop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009215329A
Other languages
Japanese (ja)
Inventor
Toshi Yamagishi
敏志 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009215329A priority Critical patent/JP2011065405A/en
Publication of JP2011065405A publication Critical patent/JP2011065405A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique which extracts text data included in a video to link the extracted text data with the video. <P>SOLUTION: A reproducing part 50 includes a telop processing part 60 as a function for using a phrase or a text of a telop for search processing and editing processing. The telop processing part 60 includes a phrase search part 62, a telop amount search part 64, and a telop amount editing part 66. The phrase search part 62 takes a phrase of telop information which is recorded in a data storage part 70 by a recording part 30, as a key to perform processing of searching the head of a recorded moving image (search processing). The telop amount search part 64 takes a text amount associated in time series out of the telop information, as a key to perform processing of searching the head of a moving image. The telop amount editing part 66 uses the text amount to generate a moving image resulting from collecting highlight scenes. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示装置及び表示方法に係り、例えばテロップ等の文字が含まれる映像を再生する表示装置及び表示方法に関する。   The present invention relates to a display device and a display method, and more particularly to a display device and a display method for reproducing an image including characters such as telops.

近年のテレビ番組ではテロップの利用態様が多様化されており、映画の字幕や料理番組のレシピだけに留まらず、バラエティー番組などでの印象に残るフレーズにもテロップが多数表示されるようになっている。   In recent TV programs, the use of telops is diversified, and not only movie subtitles and recipes for cooking programs, but also many telops are displayed in phrases that remain in impressions on variety programs. Yes.

そして従来より、テロップ等の文字情報を映像に含む放送の利用について様々な技術が提案されている。例えば、テレビ放送及び録画済みの映像よりテロップ部分を認識し、テキスト化した情報を保存する技術がある(特許文献1参照)。また、テロップとは異なるが、文字放送の文字情報、特にテレビ番組ガイドの情報を記録した記録媒体(ICカード)を番組を録画した別の記録媒体(ビデオテープ)に関連づけて保存する技術がある(特許文献2参照)。   Conventionally, various techniques have been proposed for using broadcasts that include text information such as telops in video. For example, there is a technique for recognizing a telop part from a television broadcast and a recorded video and storing the text information (see Patent Document 1). Further, although different from telop, there is a technique for storing a recording medium (IC card) on which character information of teletext, particularly TV program guide information is recorded, in association with another recording medium (video tape) on which the program is recorded. (See Patent Document 2).

特開2001−111910号公報JP 2001-111910 A 特開2007−332977号公報JP 2007-332977 A

ところで、特許文献1に開示の技術では、映像からテロップ等の文字情報を抽出して蓄積することで、少ないデータ量によってデータベースを構築することを目的としている。しかしながら、抽出したテキストデータと、映像との連携については考慮されていなかった。また、特許文献2に開示の技術では、別映像として受信するテレテキストなどの文字情報に限定されており、テロップの利用については何ら考慮されていない。さらに録画した番組との連携については非常に限られており、別の技術が求められていた。   By the way, the technique disclosed in Patent Document 1 aims to construct a database with a small amount of data by extracting and storing character information such as telops from video. However, the cooperation between the extracted text data and the video has not been considered. Further, the technique disclosed in Patent Document 2 is limited to character information such as teletext received as a separate video, and no consideration is given to the use of telop. Furthermore, the linkage with the recorded program is very limited, and another technique is required.

本発明の目的は、上記課題に鑑み、映像に含まれるテキストデータを抽出し、抽出したテキストデータと映像とを連携させる技術を提供することにある。   In view of the above problems, an object of the present invention is to provide a technique for extracting text data included in a video and linking the extracted text data and the video.

本発明に係る装置は、表示装置に関する。この表示装置は、動画像に含まれるテロップのテキストデータを抽出するテキスト抽出手段と、前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理手段と、前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理手段と、を備える。
また、前記テキスト抽出手段は、前記テキストデータに含まれるフレーズを抽出し、前記関連処理手段は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、前記検索処理手段は、前記フレーズにもとづいて前記動画像の再生位置を決定してもよい。
また、前記検索処理手段は、ユーザから検索対象のフレーズの指定を受け、指定されたフレーズが含まれる前記動画像の位置を特定し、特定された前記動画像の位置を再生位置として決定してもよい。
また、前記検索処理手段は、ユーザから指定されたフレーズが含まれる位置が複数ある場合、前記フレーズが含まれる位置に対応するサムネイル画像をユーザから指定可能に表示し、ユーザから指定された前記サムネイル画像に対応する位置から前記動画像の再生を行ってもよい。
また、前記検索処理手段は、前記テキストデータの量を時系列で抽出し、前記動画像の位置と対応づけて、前記動画像の再生位置をユーザから指定可能に表示し、ユーザから指定された位置から前記動画像の再生処理を行ってもよい。
また、前記検索処理手段は、前記テキストデータの量を時系列で抽出し、前記テキストデータの量のピーク部分の映像を検索用の画像として生成してもよい。
また、前記動画像を放送波として受信する受信手段と、前記受信した動画像を記録するコンテンツ記憶手段と、を備え、前記関連処理手段は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像におけるテキストデータの抽出位置とを関連づけて記録してもよい。
本発明の別の態様は表示方法に関する。この表示方法は、動画像に含まれるテロップのテキストデータを抽出するテキスト抽出工程と、前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理工程と、前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理工程と、を備える。
また、前記テキスト抽出工程は、前記テキストデータに含まれるフレーズを抽出し、前記関連処理工程は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、前記検索処理工程は、前記フレーズにもとづいて前記動画像の再生位置を決定してもよい。
また、前記検索処理工程は、ユーザから検索対象のフレーズの指定を受け、指定された前記フレーズが含まれる前記動画像の位置を特定し、特定された前記動画像の位置を前記動画像の再生位置として決定してもよい。
また、前記検索処理工程は、ユーザから指定されたフレーズが含まれる位置が複数ある場合、前記フレーズが含まれる位置に対応するサムネイル画像をユーザから指定可能に表示し、ユーザから指定された前記サムネイル画像に対応する位置から前記コンテンツの再生を行ってもよい。
また、前記検索処理工程は、前記テキストデータの量を時系列で抽出し、前記動画像の位置と対応づけて、前記動画像の再生位置をユーザから指定可能に表示し、ユーザから指定された位置から前記動画像の再生処理を行ってもよい。
また、前記検索処理工程は、前記テキストデータの量を時系列で抽出し、前記テキストデータの量のピーク部分の映像を検索用の画像として生成してもよい。
また、前記動画像を放送波として受信する受信工程と、前記受信した前記動画像を記録するコンテンツ記憶工程と、を備え、前記関連処理工程は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像における前記テキストデータの抽出位置とを関連づけて記録してもよい。
The device according to the present invention relates to a display device. The display device relates to a text extraction unit that extracts text data of a telop included in a moving image, and a related processing unit that associates the extracted text data with an extraction position of the text data in the moving image and records it in a storage unit. And a search processing means for searching for the moving image based on the extracted text data.
The text extraction unit extracts a phrase included in the text data, and the related processing unit records the phrase and the position of the moving image in which the phrase is included in association with each other, and performs the search. The processing means may determine the playback position of the moving image based on the phrase.
Further, the search processing means receives a specification of a search target phrase from a user, specifies a position of the moving image including the specified phrase, and determines a position of the specified moving image as a reproduction position. Also good.
Further, when there are a plurality of positions including a phrase specified by the user, the search processing means displays a thumbnail image corresponding to the position including the phrase so that the user can specify the thumbnail, and the thumbnail specified by the user The moving image may be reproduced from a position corresponding to the image.
Further, the search processing means extracts the amount of the text data in a time series, displays the reproduction position of the moving image in association with the position of the moving image so as to be designated by the user, and is designated by the user. You may perform the reproduction | regeneration processing of the said moving image from a position.
Further, the search processing means may extract the amount of the text data in time series, and generate a video of a peak portion of the amount of the text data as a search image.
And a receiving unit that receives the moving image as a broadcast wave, and a content storage unit that records the received moving image, and the related processing unit is configured to record the extracted text when recording the moving image. Data and the extraction position of text data in the moving image may be recorded in association with each other.
Another embodiment of the present invention relates to a display method. This display method includes a text extraction step of extracting text data of a telop included in a moving image, a related processing step of associating the extracted text data with an extraction position of the text data in the moving image and storing them in a storage means. And a search processing step for searching for the moving image based on the extracted text data.
Further, the text extraction step extracts a phrase included in the text data, and the related processing step records the phrase in association with the position of the moving image in which the phrase is included, and the search The processing step may determine a reproduction position of the moving image based on the phrase.
Further, the search processing step receives a specification of a phrase to be searched from a user, specifies a position of the moving image including the specified phrase, and reproduces the position of the specified moving image as the moving image. The position may be determined.
In addition, when there are a plurality of positions including the phrase specified by the user, the search processing step displays a thumbnail image corresponding to the position including the phrase so that the user can specify the thumbnail, and the thumbnail specified by the user The content may be reproduced from a position corresponding to the image.
In addition, the search processing step extracts the amount of the text data in time series, displays the reproduction position of the moving image in association with the position of the moving image so as to be designated by the user, and is designated by the user. You may perform the reproduction | regeneration processing of the said moving image from a position.
Further, the search processing step may extract the amount of the text data in time series and generate a video of a peak portion of the amount of the text data as a search image.
A receiving step for receiving the moving image as a broadcast wave; and a content storing step for recording the received moving image, wherein the related processing step is performed when the moving image is recorded. The text data and the extraction position of the text data in the moving image may be recorded in association with each other.

本発明によれば、映像に含まれるテキストデータを抽出し、抽出したテキストデータと映像とを連携させる技術を提供することができる。   According to the present invention, it is possible to provide a technique for extracting text data included in a video and linking the extracted text data and the video.

本発明の実施形態に係る、レコーダの概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the recorder based on embodiment of this invention. 本発明の実施形態に係る、記録部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the recording part based on embodiment of this invention. 本発明の実施形態に係る、タイムスタンプ、番組のコンテンツID及び抽出したフレーズが関連づけられてデータ記憶部に記録されるデータの内容を示した図である。It is the figure which showed the content of the data which are related with the time stamp, content ID of a program, and the extracted phrase based on embodiment of this invention, and are recorded on a data storage part. 本発明の実施形態に係る、再生部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the reproducing part based on embodiment of this invention. 本発明の実施形態に係る、検索するフレーズをユーザが入力するモードの処理を説明する図である。It is a figure explaining the process of the mode which a user inputs the phrase to search based on embodiment of this invention. 本発明の実施形態に係る、検索するフレーズをユーザが選択するモードの処理を説明する図である。It is a figure explaining the process of the mode which a user selects the phrase to search based on embodiment of this invention. 本発明の実施形態に係る、テロップ量にもとづいて検索するときの検索画面例を示した図である。It is the figure which showed the example of a search screen when searching based on the amount of telops based on embodiment of this invention. 本発明の実施形態に係る、テロップ量にもとづくハイライト動画を生成するときの編集設定画面例を示した図である。It is the figure which showed the example of an edit setting screen when producing | generating the highlight moving image based on the amount of telop based on embodiment of this invention. 本発明の実施形態に係る、生成されるハイライト動画、その生成に使用したテロップ量及びピーク画像の関係を模式的に示した図である。It is the figure which showed typically the relationship of the highlight moving image produced | generated, the telop amount used for the production | generation, and the peak image based on embodiment of this invention.

次に、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して具体的に説明する。以下の実施形態では、放送等の映像に含まれるテロップ情報を抽出し、テキスト化した情報を保存し、再生時の検索機能に利用する。主要技術の概要は、以下の1)〜4)の通りである。
1)映像データとテキスト化したテロップ情報を関連付け(タグ付け)して保存する。
2)録画データを検索する際にテロップ情報からの検索を実施する。
3)時間軸でテロップ量(テキスト量)をモニタリングしておき、番組のハイライト部分のみを編集・再生する。
4)テロップ量をキーとして再生位置の検索を実施する。
Next, a mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be specifically described with reference to the drawings. In the following embodiment, telop information included in video such as broadcast is extracted, the text information is stored, and is used for a search function at the time of reproduction. The outline of the main technologies is as follows 1) to 4).
1) Associating (tagging) and storing video data and text-formatted telop information.
2) When searching for recorded data, search from the telop information.
3) Monitor the telop amount (text amount) on the time axis, and edit and play back only the highlighted part of the program.
4) Search for the playback position using the amount of telop as a key.

図1は、本実施形態に係るレコーダ10の概略構成を示す機能ブロック図である。レコーダ10は、単体の製品として例示するが、テレビに内蔵される形態であってもよい。図示のように、レコーダ10は、記録再生処理部20と、主制御部12と、操作取得部14と、出力部16とを備える。   FIG. 1 is a functional block diagram showing a schematic configuration of a recorder 10 according to the present embodiment. The recorder 10 is exemplified as a single product, but may be in a form incorporated in a television. As illustrated, the recorder 10 includes a recording / playback processing unit 20, a main control unit 12, an operation acquisition unit 14, and an output unit 16.

主制御部12は、レコーダ10の各構成要素を統括的に制御する。操作取得部14は、ユーザの操作を受け付ける要素であり、レコーダ10に設けられユーザの直接の操作を取得したり、コントローラ(RC)80からの無線による操作を取得する。操作取得部14で取得されたユーザからの指示をもとに、また、所定の設定に応じて、主制御部12は各構成要素を制御する。さらに、出力部16は、記録再生処理部20の再生部50の再生出力を所望の規格、例えばHDMI規格やDVI規格等の信号に変換して表示部90に出力する。   The main control unit 12 comprehensively controls each component of the recorder 10. The operation acquisition unit 14 is an element that receives a user operation, and is provided in the recorder 10 to acquire a user's direct operation or to acquire a wireless operation from the controller (RC) 80. Based on an instruction from the user acquired by the operation acquisition unit 14 and according to a predetermined setting, the main control unit 12 controls each component. Further, the output unit 16 converts the reproduction output of the reproduction unit 50 of the recording / reproduction processing unit 20 into a signal of a desired standard, for example, HDMI standard or DVI standard, and outputs the signal to the display unit 90.

記録再生処理部20は、映像の入力ソースとして、チューナ21と、外部入力部22と、ディスク部23と、ソース選択部24とを備える。チューナ21は、デジタル放送を受信し復調する一般的なデジタルチューナであって、アンテナ(ATT)で受信したデジタル放送波の信号に対して、復調処理やDeMUX処理等を施すことで、デジタル放送波からTSを取り出し、さらにTSから映像ストリームや音声ストリームを取り出す。また、外部入力部22は、外部のコンテンツを取得する。さらに、ディスク部23は、ブルーレイディスク(以下「BD」という)やDVD(Digital Versatile Disc)の再生及び記録処理を行うドライブである。また、記録再生処理部20は、記録部30と、再生部50と、内蔵記録媒体としてHDD(Hard disk drive)やフラッシュ・メモリ等の記録媒体であるデータ記憶部70を備える。   The recording / playback processing unit 20 includes a tuner 21, an external input unit 22, a disk unit 23, and a source selection unit 24 as video input sources. The tuner 21 is a general digital tuner that receives and demodulates a digital broadcast, and performs a demodulation process, a DeMUX process, and the like on a digital broadcast wave signal received by an antenna (ATT), thereby providing a digital broadcast wave. TS is taken out from the video, and a video stream and an audio stream are taken out from the TS. The external input unit 22 acquires external content. Further, the disc unit 23 is a drive that performs reproduction and recording processing of a Blu-ray disc (hereinafter referred to as “BD”) and a DVD (Digital Versatile Disc). The recording / playback processing unit 20 includes a recording unit 30, a playback unit 50, and a data storage unit 70 that is a recording medium such as an HDD (Hard Disk Drive) or a flash memory as a built-in recording medium.

図2(a)は、記録部30の構成を示す機能ブロック図である。この記録部30は、ディスク部23を経由してチューナ21から取得した映像ストリーム及び音声ストリームを復号して、所望のコンテンツ変換、例えば、サイズや解像度等の変換処理を行った後に、再度符号化処理を施して、データ記憶部70やディスク部23の所定の記録媒体に記録する。そのような処理を実現するために、記録部30は、復号処理部32及び符号化処理部34を備えている。このような形態の記録処理を行うレコーダ10として、例えば、DVDレコーダがある。なお、復号処理をせずにTSをそのまま記録するレコーダ10としては、BDレコーダがあり、記録部30は図2(b)に示す構成とすることができる。その場合、所望のTSを選定するTS選定部46を備え、選定したTSをそのまま記録すると共に、テロップの解析のための機能として、図2(a)と同様に、復号処理部32と、テロップテキスト化部40と、テロップタグ処理部42と、テロップ量計算部44とを備える。以下では、図2(a)の構成をもとに説明する。   FIG. 2A is a functional block diagram showing the configuration of the recording unit 30. As shown in FIG. The recording unit 30 decodes the video stream and audio stream acquired from the tuner 21 via the disk unit 23, performs desired content conversion, for example, conversion processing such as size and resolution, and then encodes again. Processing is performed and recording is performed on a predetermined recording medium such as the data storage unit 70 or the disk unit 23. In order to realize such processing, the recording unit 30 includes a decoding processing unit 32 and an encoding processing unit 34. An example of the recorder 10 that performs such a recording process is a DVD recorder. Note that the recorder 10 that records the TS as it is without performing the decoding process is a BD recorder, and the recording unit 30 can be configured as shown in FIG. In that case, a TS selection unit 46 for selecting a desired TS is provided, and the selected TS is recorded as it is, and as a function for analyzing the telop, as in FIG. A text conversion unit 40, a telop tag processing unit 42, and a telop amount calculation unit 44 are provided. Below, it demonstrates based on the structure of Fig.2 (a).

記録部30は、テロップにもとづく検索機能等を実現するためにテロップを認識し記録する構成として、テロップテキスト化部40と、テロップタグ処理部42と、テロップ量計算部44とを備えている。なお、テロップテキスト化部40が、画像からテロップを認識してテキスト化する技術は、公知の技術(例えば、上記特許文献1の技術)を用いることができる。また、デジタル放送の映像ストリームがMPEG規格に基づく場合、映像ストリームは、Iピクチャ、Pピクチャ及びBピクチャの3種類のフレームから構成される。Iピクチャは基準となるフレームであり、PピクチャはIピクチャから予測されて生成され、さらにBピクチャはIピクチャ及びPピクチャから予測されて生成される。そこで、認識処理の負荷低減の観点から、Iピクチャのみをテロップの認識処理対象としてもよい。なお、フレーム中のテロップの領域の特定手法として、例えば、上述の公知の技術を用いることができる。   The recording unit 30 includes a telop text conversion unit 40, a telop tag processing unit 42, and a telop amount calculation unit 44 as a configuration for recognizing and recording a telop in order to realize a search function based on the telop. Note that a technique in which the telop text converting unit 40 recognizes a telop from an image and converts it into a text can be a known technique (for example, the technique disclosed in Patent Document 1). When the video stream of digital broadcasting is based on the MPEG standard, the video stream is composed of three types of frames: I picture, P picture, and B picture. The I picture is a reference frame, the P picture is predicted and generated from the I picture, and the B picture is predicted and generated from the I picture and the P picture. Therefore, from the viewpoint of reducing the load of recognition processing, only I pictures may be targeted for telop recognition processing. For example, the above-described known technique can be used as a method for identifying the telop area in the frame.

テロップタグ処理部42は、テロップテキスト化部40で抽出したテキストを、そのテキストが含まれていたフレームと関連づける。通常、TSストリーム中には、同期処理の為のタイムスタンプ(PTS)及びチャンネルや番組を特定するID(以下、単に「番組ID」という)が含まれている。例えば、イベントIDは、番組を特定するIDとして、EIT(Event Information Table)に記載されている。また、チャンネルを特定するIDとして、サービスIDがある。   The telop tag processing unit 42 associates the text extracted by the telop text conversion unit 40 with the frame in which the text was included. Normally, a TS stream includes a time stamp (PTS) for synchronization processing and an ID for specifying a channel or a program (hereinafter simply referred to as “program ID”). For example, the event ID is described in an EIT (Event Information Table) as an ID for identifying a program. In addition, there is a service ID as an ID for specifying a channel.

そこで、テロップタグ処理部42は、タイムスタンプ(タイムスタンプをもとに生成した時刻情報)、番組ID及び抽出したフレーズ(テキスト)を関連づけてデータ記憶部70に記録する。以下、テロップから抽出されデータ記憶部70に記録されたフレーズに関する情報を「テロップ情報」と称する。図3は、データ記憶部70に記録されるテロップ情報の例を示したテーブルである。テロップ情報として、番組ID、時刻情報、フレーズが含まれる。例えば、テーブルの一番上のテロップ情報は、番組ID「0X1234」、時刻情報「00:03:00」、フレーズ「ハワイ、ビーチ」となっている。時刻情報として、録画時間(コンテンツの長さ)に対応した情報が記録されているが、上述TSに含まれるPTSがそのまま記録されてもよく、フレーズが含まれる位置が特定できる対応関係で記録されていれば、どのような態様で記録されていてもよい。また、フレーズは、ある一点の時刻において含まれるフレーズを示してもよいし、例えば15秒単位の所定時間内に含まれるフレーズであってもよい。なお、コンテンツ及びテロップ情報の記録手段としてデータ記憶部70について例示しているが、これに限る趣旨ではなく、ディスク部23であってもよいし、コンテンツとテロップ情報が記録される場所は異なってもよい。   Therefore, the telop tag processing unit 42 records the time stamp (time information generated based on the time stamp), the program ID, and the extracted phrase (text) in the data storage unit 70 in association with each other. Hereinafter, the information regarding the phrase extracted from the telop and recorded in the data storage unit 70 is referred to as “telop information”. FIG. 3 is a table showing an example of telop information recorded in the data storage unit 70. The telop information includes a program ID, time information, and a phrase. For example, the telop information at the top of the table is a program ID “0X1234”, time information “00:03:00”, and the phrase “Hawaii, beach”. As time information, information corresponding to the recording time (content length) is recorded, but the PTS included in the TS may be recorded as it is, and is recorded with a correspondence relationship that can specify the position where the phrase is included. As long as it is, it may be recorded in any manner. Further, the phrase may indicate a phrase included at a certain point in time, or may be a phrase included within a predetermined time of, for example, 15 seconds. The data storage unit 70 is illustrated as a means for recording content and telop information. However, the present invention is not limited to this, and the disk unit 23 may be used, and the location where the content and telop information are recorded is different. Also good.

そして、データ記憶部70に記録されているフレーズを検索のキーとして使用することで、実際の映像において印象に残ったフレーズ等が含まれるテロップ情報をもとに、再生位置検索をすることができる。なお、テロップ領域抽出部36は、全ての種類のフレームを解析することでテロップ領域を特定してテキスト抽出処理を行っても良いが、小さな処理負荷やスピーディな処理が求められる場合には、特定のフレームより具体的にはIピクチャのみを処理対象として選択してもよい。   Then, by using the phrase recorded in the data storage unit 70 as a search key, it is possible to perform a reproduction position search based on telop information including a phrase or the like left in an impression in an actual video. . Note that the telop area extraction unit 36 may perform text extraction processing by specifying the telop area by analyzing all types of frames. However, if a small processing load or speedy processing is required, the telop area extraction unit 36 may specify the telop area. More specifically, only an I picture may be selected as a processing target.

テロップ量計算部44は、番組単位で、つまり、番組ID単位で、テロップの量(文字数やフレーズ数)を時系列に算出し、データ記憶部70に記録する。データ記憶部70に時系列に記録されているテロップの量を参照することで、番組中においてテロップが多く表示された場面を特定することができる。テロップ量に基づく番組内容の検索例については、図7等で後述する。なお、テロップ情報の記録は、番組の録画時のみに限らず、録画済みの番組に対しても行うことできる。   The telop amount calculation unit 44 calculates the amount of telop (number of characters or number of phrases) in time series for each program, that is, for each program ID, and records it in the data storage unit 70. By referring to the amount of telops recorded in time series in the data storage unit 70, it is possible to specify a scene in which many telops are displayed in the program. A search example of program contents based on the amount of telop will be described later with reference to FIG. The telop information can be recorded not only at the time of recording the program, but also for a recorded program.

つぎに、再生機能について、おもに検索処理に着目して説明する。
図4は、再生部50の概略構成を示す機能ブロック図である。再生部50は、一般的な再生処理機能として復号処理部52及び提示処理部54を備える。復号処理部52は、映像及び音声について、MPEG規格で符号化された信号を復号する。また、復号処理部52は、文字放送等については、例えばBML言語を用いたマルチメディア符号化規格により符号化された信号を復号する。提示処理部54は、映像・音声・データの提示処理を行う。提示される画面は、必要に応じて映像信号が表示される画面(プレーン)にデータ放送画面等が複数重ねられて構成される。提示処理部54は、その構成処理を行い、出力部16に出力する。
Next, the playback function will be described mainly focusing on search processing.
FIG. 4 is a functional block diagram showing a schematic configuration of the playback unit 50. The playback unit 50 includes a decoding processing unit 52 and a presentation processing unit 54 as general playback processing functions. The decoding processing unit 52 decodes a signal encoded according to the MPEG standard for video and audio. In addition, the decoding processing unit 52 decodes a signal encoded according to a multimedia encoding standard using, for example, the BML language for text broadcasting and the like. The presentation processing unit 54 performs video / audio / data presentation processing. The presented screen is configured by superimposing a plurality of data broadcasting screens on a screen (plane) on which a video signal is displayed as necessary. The presentation processing unit 54 performs the configuration process and outputs it to the output unit 16.

さらに、再生部50は、テロップのフレーズ又はテキストを検索処理や編集処理に利用するための機能として、テロップ処理部60を備える。テロップ処理部60は、フレーズ検索部62と、テロップ量検索部64と、テロップ量編集部66とを備える。   Furthermore, the playback unit 50 includes a telop processing unit 60 as a function for using a telop phrase or text for search processing and editing processing. The telop processing unit 60 includes a phrase search unit 62, a telop amount search unit 64, and a telop amount editing unit 66.

フレーズ検索部62は、記録部30がデータ記憶部70に記録したテロップ情報のフレーズをキーとして、記録されている動画の頭出し処理(検索処理)を行う。テロップ量検索部64は、テロップ情報のうち時系列に関連づけられたテキスト量をキーとして動画の頭出し処理を行う。テロップ量編集部66は、テロップに含まれるテキスト量、つまり文字数を利用して、ハイライトシーンを編集して集めた動画を生成する。   The phrase search unit 62 performs a cueing process (search process) of the recorded moving image using the phrase of the telop information recorded in the data storage unit 70 by the recording unit 30 as a key. The telop amount search unit 64 performs a cueing process of a moving image using the text amount associated with the time series in the telop information as a key. The telop amount editing unit 66 uses the amount of text included in the telop, that is, the number of characters to generate a moving image that is collected by editing the highlight scene.

図5及び図6の検索画面例をもとにフレーズを用いた頭出し処理について説明する。ここで示す処理は、主にフレーズ検索部62が行う。図5は、ユーザが検索するフレーズを入力するモードの処理を説明する図を示している。ユーザは、直接又はコントローラ80を介して操作取得部14を操作し、メニュー画面等から図5に示す検索画面A10を表示させる。検索画面A10は、上段のフレーズ入力領域A20と、下段の検索結果表示領域A30から構成されている。   A cueing process using a phrase will be described based on the search screen examples of FIGS. 5 and 6. The process shown here is mainly performed by the phrase search unit 62. FIG. 5 is a diagram illustrating processing in a mode in which a user inputs a phrase to be searched. The user operates the operation acquisition unit 14 directly or via the controller 80 to display the search screen A10 shown in FIG. 5 from the menu screen or the like. The search screen A10 includes an upper phrase input area A20 and a lower search result display area A30.

フレーズ入力領域A20は、番組指定領域A21、番組名選択領域A22、検索タイプ指定領域A23、検索フレーズ入力領域A24及び検索実行ボタンA25を備えている。ユーザは、番組指定領域A21において、フレーズを検索する対象として、番組の指定をするか否かを選択する。ここでは、指定する旨を示す「あり」が選択されている。番組の指定ありの場合、番組名選択領域A22には、録画されているコンテンツがユーザから指定可能に表示される。ここでは番組名「ABCD旅紀行」が選択さている。なお、番組指定領域A21において「なし」が選択された場合、データ記憶部70に記録されている番組全体がフレーズ検索の対象となる。ただし、その対象は、テロップの解析がなされたコンテンツに限られる。そして、番組名選択領域A22は、例えば、「全体」といった表示がなされる。   The phrase input area A20 includes a program designation area A21, a program name selection area A22, a search type designation area A23, a search phrase input area A24, and a search execution button A25. In the program designation area A21, the user selects whether or not to designate a program as a phrase search target. In this case, “Yes” indicating the designation is selected. When a program is designated, the recorded content is displayed in the program name selection area A22 so that the user can designate it. Here, the program name “ABCD Journey” is selected. When “none” is selected in the program designation area A21, the entire program recorded in the data storage unit 70 is the target of phrase search. However, the target is limited to the content for which the telop has been analyzed. In the program name selection area A22, for example, “entire” is displayed.

検索タイプ指定領域A23は、フレーズの検索方法の指定をユーザから受け付ける。具体的に、ユーザは、「入力」タイプと「選択」タイプのいずれかを選択する。ここでは、「入力」タイプが選択されている。「入力」タイプが選択されている場合、検索フレーズ入力領域A24が表示され、ユーザは、この検索フレーズ入力領域A24に所望のフレーズを入力する。そして検索フレーズ入力領域A24の下に配置されている検索実行ボタンA25を押下すると検索が実行される。ここでは、「ハワイ」が検索対象フレーズとして入力されている。   The search type designation area A23 accepts designation of a phrase search method from the user. Specifically, the user selects either the “input” type or the “selection” type. Here, the “input” type is selected. When the “input” type is selected, the search phrase input area A24 is displayed, and the user inputs a desired phrase in the search phrase input area A24. Then, when the search execution button A25 arranged under the search phrase input area A24 is pressed, the search is executed. Here, “Hawaii” is entered as a search target phrase.

検索実行ボタンA25の押下により、テロップ処理部60のフレーズ検索部62は、データ記憶部70に記録されているテロップ情報を参照し、入力されたフレーズを検索し、フレーズが存在する場合は、そのフレーズに関連づけられているフレームを特定する。そして検索結果は、検索結果表示領域A30に表示される。   By pressing the search execution button A25, the phrase search unit 62 of the telop processing unit 60 refers to the telop information recorded in the data storage unit 70, searches for the input phrase, and if a phrase exists, Identify the frame associated with the phrase. The search result is displayed in the search result display area A30.

検索結果表示領域A30は、時系列軸A31と、サムネイル画像領域A32と、選択フレーム表示領域A33とを備えている。時系列軸A31は、検索されたフレーズの時系列位置を所定のマークで表示する。ここでは、5カ所の位置が表示されている。サムネイル画像領域A32は、検索されたフレーズに関連づけられたフレームをサムネイル画像として表示する。このとき、サムネイル画像領域A32は、時系列軸A31の表示と対応づけられている。そして、ユーザは、コントローラ80等を操作することにより、サムネイル画像領域A32に表示された所望のサムネイル画像を選択することができる。選択されたサムネイル画像及びそのサムネイル画像に対応する時系列位置がハイライトされて表示される。ここでは、3番目のサムネイル画像が選択されている。そして、選択されたサムネイル画像を見やすく拡大した画像が選択フレーム表示領域A33に表示される。そしてハイライトされているサムネイル画像が選択されると、選択されたサムネイル画像に関連づけられているフレームの位置から、コンテンツの再生が開始され表示部90に出力される。   The search result display area A30 includes a time series axis A31, a thumbnail image area A32, and a selected frame display area A33. The time series axis A31 displays the time series position of the searched phrase with a predetermined mark. Here, five positions are displayed. The thumbnail image area A32 displays a frame associated with the searched phrase as a thumbnail image. At this time, the thumbnail image area A32 is associated with the display of the time-series axis A31. The user can select a desired thumbnail image displayed in the thumbnail image area A32 by operating the controller 80 or the like. The selected thumbnail image and the time-series position corresponding to the thumbnail image are highlighted and displayed. Here, the third thumbnail image is selected. Then, the selected thumbnail image is displayed in the selected frame display area A33 in an easily viewable manner. When the highlighted thumbnail image is selected, content playback is started from the position of the frame associated with the selected thumbnail image and output to the display unit 90.

つぎに図6をもとに、フレーズを選択するタイプの検索が指定されたときの表示態様について説明する。図5と同様に、検索画面A10は、上段のフレーズ入力領域A20と、下段の検索結果表示領域A30から構成されている。ここでは、検索タイプ指定領域A23において、「選択」タイプがユーザから指定されている。このとき、フレーズ検索部62は、データ記憶部70に記録されているテロップ情報を参照し、抽出されているフレーズを検索フレーズ選択領域A26に表示する。この表示のときには、例えば、含まれているフレーズの数が多い順に、その数が分かるように表示される。図示では、5種類のフレーズが選択可能に表示されており、例えば、「ハワイ」というフレーズが一番多く21回抽出されて記録されていることを示している。また、ここでは、2番目の「ホノルル」というフレーズが、検索フレーズとして選択されている。なお、選択可能なフレーズは複数であってもよい。選択後、検索ボタンA25が押下されると、図5と同様に検索結果表示領域A30に検索結果が表示される。   Next, based on FIG. 6, a display mode when a search for selecting a phrase is designated will be described. Similar to FIG. 5, the search screen A10 includes an upper phrase input area A20 and a lower search result display area A30. Here, in the search type designation area A23, the “selection” type is designated by the user. At this time, the phrase search unit 62 refers to the telop information recorded in the data storage unit 70 and displays the extracted phrase in the search phrase selection area A26. At the time of this display, for example, the numbers are displayed so that the number of phrases included can be understood in descending order. In the figure, five types of phrases are displayed so as to be selectable. For example, the phrase “Hawaii” is extracted and recorded 21 times. Here, the second phrase “Honolulu” is selected as the search phrase. A plurality of selectable phrases may be used. When the search button A25 is pressed after selection, the search result is displayed in the search result display area A30 as in FIG.

以上のように、テロップに表示された文字情報を抽出し、抽出元のフレームと関連づけてテロップ情報として記録し、テロップ情報を番組の検索機能として利用することができる。その結果、ユーザにとって印象に残ったフレーズなどからの番組検索を行うことができる。言い換えると、番組名・ジャンル・出演者情報からの検索ではなく、より直感的な検索方法により、所望の場所を検索することができる。また、データ記憶部70にはテキストデータまたはそれに準じるフォーマットとして記録されるため、必要とされるデータ量は非常に少なく、圧縮された場合、一層小さくでき、コンテンツの記録に影響を及ぼすことはない。   As described above, the character information displayed in the telop can be extracted, recorded as telop information in association with the extraction source frame, and the telop information can be used as a program search function. As a result, it is possible to perform a program search from a phrase or the like that remains impressive to the user. In other words, it is possible to search for a desired place by a more intuitive search method rather than a search from program name, genre, and performer information. Further, since the data storage unit 70 is recorded as text data or a format conforming thereto, the amount of data required is very small, and when compressed, it can be further reduced without affecting the content recording. .

つぎに、テロップ量にもとづく検索機能について説明する。ここで示す処理は、主にテロップ量検索部64が行う。図7は、テロップ量にもとづく検索をするときの検索画面B10を示しており、図示のように、検索画面B10は、検索指定領域B20と検索結果表示領域B30とから構成されている。図5や図6で示した処理と同様に、ユーザは、操作取得部14を操作し、メニュー画面等から図7に示す検索画面B10を表示させる。   Next, a search function based on the telop amount will be described. The processing shown here is mainly performed by the telop amount search unit 64. FIG. 7 shows a search screen B10 when performing a search based on the amount of telop. As shown in the figure, the search screen B10 is composed of a search designation area B20 and a search result display area B30. Similar to the processing shown in FIGS. 5 and 6, the user operates the operation acquisition unit 14 to display the search screen B10 shown in FIG. 7 from the menu screen or the like.

つぎに、ユーザは、番組名選択領域B22において検索対象となるコンテンツを指定する。このとき、テロップ量検索部64は、データ記憶部70に記録されているコンテンツを参照し、検索対象可能なコンテンツをユーザからの指定可能に表示する。そして、ユーザが所望のコンテンツを指定し、検索ボタンB25を押下すると、テロップ量検索部64は、データ記憶部70に記録されているテロップ情報をもとに、図示のように検索結果表示領域B30にテロップ量を時系列にグラフとして表示する。具体的には、検索結果表示領域B30は、テロップ量グラフ表示領域B31と、サムネイル画像領域B32と、選択フレーム表示領域B33とを備えている。   Next, the user designates content to be searched in the program name selection area B22. At this time, the telop amount search unit 64 refers to the content recorded in the data storage unit 70 and displays the searchable content so that it can be designated by the user. When the user specifies desired content and presses the search button B25, the telop amount search unit 64 uses the telop information recorded in the data storage unit 70 as shown in the search result display area B30. The telop amount is displayed as a graph in time series. Specifically, the search result display area B30 includes a telop amount graph display area B31, a thumbnail image area B32, and a selected frame display area B33.

テロップ量グラフ表示領域B31は、検索対象となったコンテンツに含まれるテロップ量、つまりテキストの量を時系列にグラフB31aとして表示する。さらに、テロップ量グラフ表示領域B31は、グラフB31aの下に操作バーB31bを備える。この操作バーB31bは指示アイコンB31cにより選択フレーム表示領域B33に表示される位置を示すとともに、指示アイコンB31cの位置を移動させることで再生位置を指定することできる。   The telop amount graph display area B31 displays the telop amount included in the content to be searched, that is, the amount of text as a graph B31a in time series. Furthermore, the telop amount graph display area B31 includes an operation bar B31b below the graph B31a. The operation bar B31b indicates the position displayed in the selected frame display area B33 by the instruction icon B31c, and the reproduction position can be designated by moving the position of the instruction icon B31c.

テロップ量グラフ表示領域B31の上には、サムネイル画像領域B32が設けられ、さらにその上には、選択フレーム表示領域B33が設けられている。サムネイル画像領域B32には、テロップ量グラフ表示領域B31においてテロップ量がピークを示す部分のサムネイル画像が表示される。ここでは、5カ所のピークが示されており、それに対応して5つのサムネイル画像が示されている。サムネイル画像の数は、固定であってもよいし、ユーザが設定可能としてもよいし、さらに、検出されたピーク数に応じて可変であってもよい。   A thumbnail image area B32 is provided above the telop amount graph display area B31, and a selection frame display area B33 is further provided thereon. In the thumbnail image area B32, a thumbnail image of a portion where the telop amount shows a peak in the telop amount graph display area B31 is displayed. Here, five peaks are shown, and five thumbnail images are shown correspondingly. The number of thumbnail images may be fixed, may be set by the user, or may be variable depending on the number of detected peaks.

そして、ユーザが上述のテロップ量グラフ表示領域B31に設けられた操作バーB31bの指示アイコンB31cにより指定した位置の画像が選択フレーム表示領域B33に表示される。例えばバラエティー番組のようなコンテンツでは、コンテンツの盛り上がり場面とテロップ量とに相関がある場合がある。そのようなコンテンツの視聴の際に、テロップ量にもとづく検索を行うことで、効果的な頭出し作業を行うことができる。   Then, the image at the position specified by the user with the instruction icon B31c of the operation bar B31b provided in the above-described telop amount graph display area B31 is displayed in the selected frame display area B33. For example, in a content such as a variety program, there may be a correlation between the content excitement scene and the amount of telop. When viewing such content, an effective cueing operation can be performed by performing a search based on the amount of telop.

つぎに、テロップ情報、特にテロップ量を用いたハイライト動画の生成処理につてい説明する。ここで示す処理は、主にテロップ量編集部66が行う。ハイライト動画を表示する為には、例えば、コントローラ80にハイライト動画を選択するボタンを設けておく。ユーザがそのボタンを押下した場合に、テロップ量編集部66は、データ記憶部70に記録されているコンテンツについて、ハイライト動画を表示する。そしてユーザは、そのハイライト動画を確認して、コントローラ80で所望のコンテンツを選択し、再生指示を行う。   Next, a process for generating a highlight moving image using telop information, particularly a telop amount, will be described. The processing shown here is mainly performed by the telop amount editing unit 66. In order to display the highlight movie, for example, a button for selecting the highlight movie is provided on the controller 80. When the user presses the button, the telop amount editing unit 66 displays a highlight moving image for the content recorded in the data storage unit 70. Then, the user confirms the highlight moving image, selects desired content with the controller 80, and issues a playback instruction.

図8(a)及び(b)は、テロップ量にもとづくハイライト動画を生成するときの編集設定画面C10を示している。また、図9は、生成されるハイライト動画、その生成に使用したテロップ量及びピーク画像の関係を模式的に示したものであり、動画像の生成時間等の条件は、図8(b)に対応している。なお、ピーク画像とは、テロップ量がピークを示す位置の画像を示すものである。   FIGS. 8A and 8B show an edit setting screen C10 when a highlight moving image based on the amount of telop is generated. FIG. 9 schematically shows the relationship between the highlight movie to be generated, the amount of telop used to generate it, and the peak image. Conditions such as the generation time of the moving image are shown in FIG. It corresponds to. The peak image indicates an image at a position where the telop amount shows a peak.

ユーザは、ハイライト動画生成の設定をするために、操作取得部14を操作し、メニュー画面等から図8(a)及び(b)に示す編集設定画面C10を表示させる。編集設定画面C10を表示させた後、ユーザは、まず、ハイライト動画対象設定領域C21において、ハイライト動画を生成する対象を設定する。図示のように、全てのコンテンツを対象とする「全て」、コンテンツの種類(ジャンル)を指定する「指定」、またはハイライト動画を生成しないことを指定する「なし」のいずれかが選択される。いま、「指定」が選択されており、この条件の場合、所望のジャンルが一覧から選択可能に表示され、図示では、5種類のジャンルが指定可能となっており、「バラエティー」がユーザによって指定されている。   In order to set the highlight moving image generation, the user operates the operation acquisition unit 14 to display the edit setting screen C10 shown in FIGS. 8A and 8B from the menu screen or the like. After displaying the edit setting screen C10, the user first sets a target for generating a highlight moving image in the highlight moving image target setting area C21. As shown in the figure, either “all” for all contents, “designation” for designating the type (genre) of content, or “none” for designating that no highlight movie is generated is selected. . Now, “Specify” is selected, and in this condition, a desired genre is displayed so that it can be selected from a list. In the figure, five types of genres can be specified, and “Variety” is specified by the user. Has been.

つぎに、ユーザは、動画長指定領域C22においてハイライト動画の長さ(時間)の決め方を指定する。ここでは、ハイライト動画の全長又はハイライト動画を構成するピーク画像の長さのいずれかを指定する。   Next, the user designates how to determine the length (time) of the highlight movie in the movie length designation area C22. Here, either the full length of the highlight movie or the length of the peak image constituting the highlight movie is designated.

図8(a)では、ハイライト動画の全長を決める「全長」を指定するモードが選択されている場合について示されている。ユーザはさらに動画時間指定領域C23に所望の時間を入力する。ここでは、ハイライト動画の時間として「20秒」が入力されている。つづいて、ユーザは、画像数指定領域C24に最大の画像数を入力する。ここでは、ピーク画像の最大数として「5」が入力されている。したがって、テロップ量にピークが5以上ある場合、テロップ量が多い5カ所のピークに対応する部分の画像が抽出されハイライト動画となる。図の例では、ハイライト動画が20秒とされているので、抽出される各画像の長さは4秒となる。条件の入力が終了したら、設定ボタンC26を押下することで、ハイライト動画の生成に関して所望の条件が設定され、テロップ量編集部66は録画のたびにハイライト画像を生成する。   FIG. 8A shows a case where the mode for specifying the “full length” that determines the total length of the highlight video is selected. The user further inputs a desired time in the moving image time designation area C23. Here, “20 seconds” is input as the time of the highlight moving image. Subsequently, the user inputs the maximum number of images in the image number designation area C24. Here, “5” is input as the maximum number of peak images. Therefore, when there are five or more peaks in the telop amount, images of portions corresponding to the five peaks having a large telop amount are extracted and become a highlight moving image. In the example in the figure, since the highlight moving image is 20 seconds, the length of each extracted image is 4 seconds. When the input of the conditions is completed, the user presses the setting button C26 to set a desired condition regarding the generation of the highlight moving image, and the telop amount editing unit 66 generates a highlight image every time recording is performed.

また、図8(b)では、ピーク画像の数を指定するモードが選択されている場合を示している。また、図9は、生成されるハイライト動画、その生成に使用したテロップ量及びピーク画像の関係を模式的に示している。この場合、ユーザは、画像数指定領域C24に最大の画像数を入力し、さらに、各ピーク画像の長さを時間指定領域C25に入力する。ここでは、画像数が「5」であり、各ピーク画像の長さがピーク中心の前後3秒の計6秒となっている。したがって、生成されるハイライト動画の長さは30秒となる。   FIG. 8B shows a case where a mode for specifying the number of peak images is selected. FIG. 9 schematically shows the relationship between the generated highlight moving image, the telop amount used for the generation, and the peak image. In this case, the user inputs the maximum number of images in the image number designation area C24, and further inputs the length of each peak image in the time designation area C25. Here, the number of images is “5”, and the length of each peak image is 6 seconds, 3 seconds before and after the peak center. Therefore, the length of the generated highlight moving image is 30 seconds.

以上のように、テロップ量にもとづくハイライト動画を生成することで、効果的な検索用の画像を生成することができる。特にテロップ量とコンテンツの盛り上がり箇所に相関があるような場合に、盛り上がり箇所を効果的に抽出したハイライト画像を生成することができ、検索用の画像として使用することができる。   As described above, it is possible to generate an effective search image by generating a highlight moving image based on the amount of telop. In particular, when there is a correlation between the amount of telop and the rising part of the content, a highlight image in which the rising part is effectively extracted can be generated and used as an image for search.

なお、上記では、コンテンツが録画される毎に、自動的に生成される態様について説明したが、ユーザがハイライト動画を作成するコンテンツを指定する態様の処理についても適用することができる。   In the above description, the mode in which the content is automatically generated every time content is recorded has been described. However, the present invention can also be applied to the mode in which the user designates the content for creating the highlight video.

以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. .

10 レコーダ
12 主制御部
14 操作取得部
20 記録再生処理部
30 記録部
32 復号処理部
34 符号化処理部
40 テロップテキスト化部
42 テロップタグ処理部
44 テロップ量計算部
50 再生部
52 復号処理部
54 提示処理部
60 テロップ処理部
62 フレーズ検索部
64 テロップ量検索部
66 テロップ量編集部
70 データ記憶部
10 recorder 12 main control unit 14 operation acquisition unit 20 recording / playback processing unit 30 recording unit 32 decoding processing unit 34 encoding processing unit 40 telop text conversion unit 42 telop tag processing unit 44 telop amount calculation unit 50 playback unit 52 decoding processing unit 54 Presentation processing unit 60 Telop processing unit 62 Phrase search unit 64 Telop amount search unit 66 Telop amount editing unit 70 Data storage unit

Claims (14)

動画像に含まれるテロップのテキストデータを抽出するテキスト抽出手段と、
前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理手段と、
前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理手段と、
を備えることを特徴とする表示装置。
Text extraction means for extracting text data of the telop included in the moving image;
Associated processing means for associating the extracted text data with the extracted position of the text data in the moving image and recording it in a storage means;
Search processing means for performing search processing of the moving image based on the extracted text data;
A display device comprising:
前記テキスト抽出手段は、前記テキストデータに含まれるフレーズを抽出し、
前記関連処理手段は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、
前記検索処理手段は、前記フレーズにもとづいて前記動画像の再生位置を決定する
ことを特徴とする請求項1に記載の表示装置。
The text extraction means extracts a phrase included in the text data,
The related processing means records the phrase in association with the position of the moving image in which the phrase was included,
The display device according to claim 1, wherein the search processing unit determines a playback position of the moving image based on the phrase.
前記検索処理手段は、ユーザから検索対象のフレーズの指定を受け、指定されたフレーズが含まれる前記動画像の位置を特定し、特定された前記動画像の位置を再生位置として決定することを特徴とする請求項2に記載の表示装置。   The search processing means receives a specification of a search target phrase from a user, specifies a position of the moving image including the specified phrase, and determines the specified position of the moving image as a reproduction position. The display device according to claim 2. 前記検索処理手段は、ユーザから指定されたフレーズが含まれる位置が複数ある場合、前記フレーズが含まれる位置に対応するサムネイル画像をユーザから指定可能に表示し、ユーザから指定された前記サムネイル画像に対応する位置から前記動画像の再生を行うことを特徴とする請求項3に記載の表示装置。   When there are a plurality of positions including the phrase specified by the user, the search processing means displays a thumbnail image corresponding to the position including the phrase so that it can be specified by the user, and displays the thumbnail image specified by the user. The display device according to claim 3, wherein the moving image is reproduced from a corresponding position. 前記検索処理手段は、前記テキストデータの量を時系列で抽出し、前記動画像の位置と対応づけて、前記動画像の再生位置をユーザから指定可能に表示し、ユーザから指定された位置から前記動画像の再生処理を行うことを特徴とする請求項3または4に記載の表示装置。   The search processing means extracts the amount of the text data in time series, displays the reproduction position of the moving image in association with the position of the moving image so that it can be designated by the user, and starts from the position designated by the user. The display device according to claim 3, wherein the moving image reproduction process is performed. 前記検索処理手段は、前記テキストデータの量を時系列で抽出し、前記テキストデータの量のピーク部分の映像を検索用の画像として生成することを特徴とする請求項3から5のいずれかに記載の表示装置。   6. The search processing unit according to claim 3, wherein the search processing unit extracts the amount of the text data in time series, and generates an image of a peak portion of the amount of the text data as a search image. The display device described. 前記動画像を放送波として受信する受信手段と、
前記受信した動画像を記録するコンテンツ記憶手段と、
を備え、
前記関連処理手段は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像におけるテキストデータの抽出位置とを関連づけて記録することを特徴とする請求項1から6のいずれかに記載の表示装置。
Receiving means for receiving the moving image as a broadcast wave;
Content storage means for recording the received moving image;
With
7. The related processing unit according to claim 1, wherein when the moving image is recorded, the extracted text data and the extracted position of the text data in the moving image are recorded in association with each other. The display device described.
動画像に含まれるテロップのテキストデータを抽出するテキスト抽出工程と、
前記抽出したテキストデータと、前記動画像におけるテキストデータの抽出位置とを関連づけて記憶手段に記録する関連処理工程と、
前記抽出したテキストデータをもとに前記動画像の検索処理を行う検索処理工程と、
を備えることを特徴とする表示方法。
A text extraction step of extracting text data of the telop included in the moving image;
An associated processing step of associating the extracted text data with an extraction position of the text data in the moving image and recording it in a storage means;
A search processing step of performing search processing of the moving image based on the extracted text data;
A display method comprising:
前記テキスト抽出工程は、前記テキストデータに含まれるフレーズを抽出し、
前記関連処理工程は、前記フレーズと、前記フレーズが含まれていた前記動画像の位置とを関連づけて記録し、
前記検索処理工程は、前記フレーズにもとづいて前記動画像の再生位置を決定する
ことを特徴とする請求項8に記載の表示方法。
The text extraction step extracts a phrase included in the text data,
The related processing step records the phrase and the position of the moving image in which the phrase is included in association with each other,
The display method according to claim 8, wherein the search processing step determines a playback position of the moving image based on the phrase.
前記検索処理工程は、ユーザから検索対象のフレーズの指定を受け、指定された前記フレーズが含まれる前記動画像の位置を特定し、特定された前記動画像の位置を前記動画像の再生位置として決定することを特徴とする請求項9に記載の表示方法。   The search processing step receives a specification of a search target phrase from a user, specifies a position of the moving image including the specified phrase, and uses the specified position of the moving image as a reproduction position of the moving image. The display method according to claim 9, wherein the display method is determined. 前記検索処理工程は、ユーザから指定されたフレーズが含まれる位置が複数ある場合、前記フレーズが含まれる位置に対応するサムネイル画像をユーザから指定可能に表示し、ユーザから指定された前記サムネイル画像に対応する位置から前記コンテンツの再生を行うことを特徴とする請求項10に記載の表示方法。   In the case where there are a plurality of positions including a phrase specified by the user, the search processing step displays a thumbnail image corresponding to the position including the phrase so as to be specified by the user, and displays the thumbnail image specified by the user. The display method according to claim 10, wherein the content is reproduced from a corresponding position. 前記検索処理工程は、前記テキストデータの量を時系列で抽出し、前記動画像の位置と対応づけて、前記動画像の再生位置をユーザから指定可能に表示し、ユーザから指定された位置から前記動画像の再生処理を行うことを特徴とする請求項10または11に記載の表示方法。   The search processing step extracts the amount of the text data in time series, displays the reproduction position of the moving image in association with the position of the moving image so that the user can specify the reproduction position, and starts from the position specified by the user. The display method according to claim 10, wherein the moving image reproduction process is performed. 前記検索処理工程は、前記テキストデータの量を時系列で抽出し、前記テキストデータの量のピーク部分の映像を検索用の画像として生成することを特徴とする請求項10から12のいずれかに記載の表示方法。   13. The search processing step of extracting the amount of the text data in time series and generating an image of a peak portion of the amount of the text data as a search image. Display method of description. 前記動画像を放送波として受信する受信工程と、
前記受信した前記動画像を記録するコンテンツ記憶工程と、
を備え、
前記関連処理工程は、前記動画像を記録するときに、前記抽出したテキストデータと前記動画像における前記テキストデータの抽出位置とを関連づけて記録することを特徴とする請求項8から13のいずれかに記載の表示方法。
A receiving step of receiving the moving image as a broadcast wave;
A content storage step for recording the received moving image;
With
14. The related processing step, when recording the moving image, records the extracted text data and the extracted position of the text data in the moving image in association with each other. Display method described in.
JP2009215329A 2009-09-17 2009-09-17 Display device and display method Pending JP2011065405A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009215329A JP2011065405A (en) 2009-09-17 2009-09-17 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009215329A JP2011065405A (en) 2009-09-17 2009-09-17 Display device and display method

Publications (1)

Publication Number Publication Date
JP2011065405A true JP2011065405A (en) 2011-03-31

Family

ID=43951582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009215329A Pending JP2011065405A (en) 2009-09-17 2009-09-17 Display device and display method

Country Status (1)

Country Link
JP (1) JP2011065405A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027635A (en) * 2012-07-30 2014-02-06 Sharp Corp Portable terminal device and information communication system
CN113497899A (en) * 2021-06-22 2021-10-12 深圳市大头兄弟科技有限公司 Character and picture matching method, device and equipment and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027635A (en) * 2012-07-30 2014-02-06 Sharp Corp Portable terminal device and information communication system
CN113497899A (en) * 2021-06-22 2021-10-12 深圳市大头兄弟科技有限公司 Character and picture matching method, device and equipment and storage medium

Similar Documents

Publication Publication Date Title
US8326115B2 (en) Information processing apparatus, display method thereof, and program thereof
TW501110B (en) Method and apparatus for accessing content
US20090249208A1 (en) Method and device for reproducing images
US20080031595A1 (en) Method of controlling receiver and receiver using the same
KR20060093511A (en) Apparatus for broadcasting recording and searching on digital broadcasting system
JP2007281537A (en) Video recording/reproducing device, and television receiver including the same
KR20070028535A (en) Video/audio stream processing device and video/audio stream processing method
US7200322B2 (en) Video-signal recording and playback apparatus, video-signal recording and playback method and recording medium
US8655142B2 (en) Apparatus and method for display recording
JP4296676B2 (en) Image recording apparatus and method, image reproducing apparatus and method, and recording medium
JP6266271B2 (en) Electronic device, electronic device control method, and computer program
JP2011065405A (en) Display device and display method
JP2006338751A (en) Network compliant information recording-reproducing device and its control method
US20040179813A1 (en) Disk reproduction apparatus allowing setting of book mark for reproducing disk, and disk reproduction method
JP4882687B2 (en) Recorded program management device
JP4230402B2 (en) Thumbnail image extraction method, apparatus, and program
JP2007201988A (en) Recording and reproducing apparatus
JP4987664B2 (en) Information processing apparatus and operation support screen display method
JP2012034235A (en) Video reproduction apparatus and video reproduction method
JP2000324439A (en) Digital bit stream recording and reproducing device and medium for recording program
JP4539884B2 (en) Reproducing apparatus, program, and method for constructing electronic screen
KR20070075731A (en) Method for playing a filmed broadcast in digital broadcasting receiver
JP2006121183A (en) Video recording/reproducing apparatus
KR20070075728A (en) Method and apparatus for searching a filmed broadcast in digital broadcasting receiver
JP2006079712A (en) Recording medium, reproducing device, and recording device