JP4172904B2 - Video / voice search device - Google Patents
Video / voice search device Download PDFInfo
- Publication number
- JP4172904B2 JP4172904B2 JP2000242371A JP2000242371A JP4172904B2 JP 4172904 B2 JP4172904 B2 JP 4172904B2 JP 2000242371 A JP2000242371 A JP 2000242371A JP 2000242371 A JP2000242371 A JP 2000242371A JP 4172904 B2 JP4172904 B2 JP 4172904B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- audio
- subtitle
- caption
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、放送や通信により伝送され、またはVTRやビデオディスクなどの記録装置に記録されたコンテンツのなかから、所望の映像や音声を検索する映像・音声検索装置に関するものである。
【0002】
【従来の技術】
従来、コンテンツ内の所望の映像や音声を検索するには、映像や音声に対して何らかの信号処理を施して当該映像や音声を検索する方法や、映像や音声に関するキーワード等の内容を記述した文字情報を新たに人手により作成し、これを用いて検索するなどの方法があった。
【0003】
【発明が解決しようとする課題】
しかし、従来の方法では、映像や音声に対して何らかの信号処理を施したり、映像や音声に関するキーワード等の内容を記述した文字情報を新たに人手により作成したりする必要があり、手間がかかるだけでなく、信号処理や文字情報の作成を誤ると正しい映像や音声の検索ができなくなるという解決すべき課題があった。
【0004】
本発明の目的は、映像や音声に対して何らかの信号処理を施したり、映像や音声に関するキーワード等の内容を記述した文字情報を新たに人手により作成したりする必要のない新規な映像・音声検索装置を提供することにある。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明映像・音声検索装置は、字幕データと関連付けられた映像及び音声からなるコンテンツから、特定の映像及び/又は音声を検索する装置であって、前記字幕データは、予め映像内の話者の役柄を区別するために色分けされた字幕文に対応する色情報を有し、前記コンテンツを入力し、映像及び音声と字幕データとを分離して、当該映像及び音声と同期をとるための情報である時刻情報とともに当該字幕データを抽出する手段と、前記抽出した時刻情報から、当該字幕文データが映像に同期して提示されるタイミングを表す時刻の情報を提示タイミング情報として検出する手段と、前記抽出した字幕データから、字幕文の色情報を抽出し、抽出した色情報に関連付けられた映像内の話者の役柄を特定する話者の役柄情報を生成する手段と、前記字幕データを抽出する際に、前記映像における画面上の字幕文の提示位置を抽出し、抽出した提示位置に最も近い画面内の話者の画面上における登場位置を検出し、検出した登場位置の情報を該話者の登場位置情報として生成する手段と、字幕文に用いられている表音文字以外の記号文字によって、前記抽出した字幕文の種類を判別し、判別した字幕文の種類の情報を当該字幕文の付加情報として生成する手段と、前記映像及び音声の情報を記録する映像・音声蓄積手段と、該映像及び音声の情報に関連付けられた字幕データと前記生成した提示タイミング情報とを、字幕情報としての前記話者の役柄情報、話者の登場位置情報、及び付加情報とリンクさせた状態で記録する字幕情報蓄積手段と、所望の映像及び/又は音声を検索するのに指定された字幕情報に基づいて、合致する字幕情報を前記字幕情報蓄積手段から探し出し、探し出した字幕情報に対応する提示タイミング情報を特定する手段と、前記検出した提示タイミング情報に対応する映像及び音声の再生を前記映像・音声蓄積手段に指示する手段とを備えることを特徴とするものである。
【0006】
【発明の実施の形態】
以下に添付図面を参照し、発明の実施の形態に基づいて本発明を詳細に説明する。
図1は、本発明映像・音声検索装置の構成をブロック図にて示している。
図1において、1は多重分離処理部、2は映像・音声蓄積部、3は字幕データ処理部、4は字幕情報蓄積部、5はユーザ操作部、6は字幕情報検索部、および7は検索結果出力部である。
なお、本発明において、コンテンツとは、テレビジョン放送やVTRなどによる映像と音声、またはラジオ放送などによる音声で提示されるメディアにテキストデータとして符号化された字幕データが付加されたものであると定義する。
【0007】
図1を参照して、本発明映像・音声検索装置の動作を説明する。
字幕データが、放送や通信により伝送され、またはVTRやビデオディスクなどの記録装置に記録されたコンテンツに多重されている場合には、それらコンテンツは多重分離処理部1に入力される。
【0008】
多重分離処理部1では、入力されたコンテンツを、映像・音声と字幕データとに分離し、さらに、字幕データについて映像・音声と同期を取るために必要な時刻情報も抽出する。分離された映像・音声は映像・音声蓄積部2に記録され、字幕データと時刻情報は字幕データ処理部3に入力される。
【0009】
上記以外の通信型サービスにより伝送され、またはフロッピーディスクなどの外部記憶メディアにより受け渡しされたコンテンツの字幕データコンテンツの字幕データの場合は、コンテンツの映像や音声は映像・音声蓄積部2に記録され、字幕データについては、コンテンツの映像・音声と同期を取るための字幕データの時刻情報も同時に得られるため、時刻情報と併せて字幕データ処理部3に入力される。
【0010】
字幕データ処理部3は、提示タイミング抽出部3−a、色情報抽出部3−b、提示位置情報抽出部3−c、および付加情報抽出部3−dで構成され、入力された字幕データと時刻情報とを用いて、字幕文とともに、その提示タイミング情報、話者の役柄情報、話者の画面上における登場位置情報、および以下に説明するような付加情報をそれぞれ検出して出力する。
【0011】
まず、提示タイミング抽出部3−aでは、字幕文の提示タイミング情報を抽出する。ここでは、入力された時刻情報から映像に同期して提示される際の字幕文の提示タイミング情報を検出する。
【0012】
色情報抽出部3−bでは、字幕文の色情報を抽出する。字幕文の色は、例えば、聴覚障害者用字幕においては、ドラマの主人公やドキュメンタリー番組のナレーター等の主たる登場人物の字幕文は黄色、主たる登場人物以外はシアンを使用するなど、登場人物とその登場人物の字幕の対応関係を明確にするために字幕文を色分けしている。従って、抽出された字幕文の色情報からその字幕に該当する話者の役柄情報を検出することができる。
【0013】
提示位置情報抽出部3−cでは、画面上の字幕文の提示位置を抽出する。字幕文は、同一画面上に複数の登場人物が存在し、話をしている場合、それぞれの登場人物に最も近い部分に、その登場人物が話している字幕が提示される。従って、抽出された字幕文の提示位置から話者の画面上での登場位置を検出することができる。
【0014】
付加情報抽出部3−dでは、字幕文中の表音文字以外の記号文字を利用し、その字幕文の種類を判別し、字幕文の付加情報を作成する。字幕文中で使用される記号文字の種類と使用例を以下のa.〜p.に示す。
a.話者名:( )+セリフ
使用例
(Aさん)こんにちは
b.音の説明:( )
使用例
(ノック)
(汽笛)
本例の場合、a.の話者名と異なり、( )以降に文がない
【0015】
c.セリフ中の引用文、ことわざ、歌詞など:「 」
使用例
「猫に小判」
d.書名、作品名、曲名、番組名など:『 』
使用例
『万葉集』
e.ナレーション:< >
使用例
<ナレーションが記述されます>
f.モノローグ:《 》
使用例
《ぶつぶつ》
【0016】
g.音楽:
【外1】
使用例
〔外1〕
h.楽器:〔外1〕+( )
使用例
〔外1〕(笛)
i .曲名:〔外1〕+(『 』)
使用例
〔外1〕(『曲名』)
j.歌詞:〔外1〕+「 」
使用例
〔外1〕「君が代は・・・」
【0017】
k.シーン外の音声:
【外2】
使用例
〔外2〕(男)こんにちは
l.電話の呼鈴:
【外3】
使用例
〔外3〕(ただし、〔外3〕を点滅させて表示する)
m.電話の声:〔外3〕+セリフ、または〔外3〕+(話者名)+セリフ
使用例
〔外3〕(Aさん)もしもし
【0018】
n.状況説明:
【外4】
使用例
【外5】
o.インタホン、無線など:〔外4〕+セリフ、または〔外4〕+(話者名)+セリフ
使用例
【外6】
(Aさん)了解
p.次のページの文と続く:⇒
使用例
1ページ目 ひさかたの ひかりのどけき 春の日に⇒
2ページ目 しづ心なく 花のちるらむ
【0019】
これらの記号文字から、付加情報抽出部3−dは、字幕文の付加情報として、例えば、字幕文の話者名や、字幕文がセリフか、音の説明か、あるいは状況説明かなど字幕の種類、また、セリフが通常セリフか、ナレーションか、モノローグか、あるいは歌詞かなどのセリフの種類、さらには、セリフにの音声がシーン外からか、電話からか、あるいは無線機からのいずれから出ているかなどの付加情報を検出することができる。
【0020】
字幕データ処理部3によって検出され、出力された字幕文、字幕文の提示タイミング情報、話者の役柄情報、話者の画面上における登場位置情報、および付加情報は字幕文毎にリンクさせた状態で字幕情報蓄積部4に記録される。ここで、字幕文とリンクされた各種情報とをあわせて字幕情報と定義する。
【0021】
以上により、コンテンツに付加された字幕の字幕情報がコンテンツに対応して字幕情報蓄積部4に記録され、蓄積されたので、ユーザは字幕情報を指定することにより所望の字幕情報が含まれているコンテンツを検索して出力することが可能となる。
【0022】
図1および図2を参照してさらに具体的に説明する。
ユーザはユーザ操作部5から検索したい対象を指定する。例えば、コンテンツの主役が話しているシーンの指定、あるいは同じコンテンツで、ナレーションがついているシーンの指定などである。指定された情報(この場合、シーン情報)は字幕情報検索部6に入力される。
【0023】
字幕情報検索部6では、まず、ユーザー操作部5から指定された情報により、字幕情報蓄積部4内の字幕情報から検索する。次に、この検索の結果から、該当する字幕文の提示タイミング情報を取得する。さらに、取得した提示タイミング情報からその字幕文の提示タイミングに相当する映像を映像・音声蓄積部から呼び出す。
【0024】
図2は、字幕情報検索部6が字幕情報の検索を行うときに図1に示す他の部分(映像・音声蓄積部2、字幕情報蓄積部4、ユーザ操作部、および検索結果出力部7)とどのような順序で、どのようなやりとりを行って検索を行うかを示している。
なお、図2は、特に、番組内のナレーションのシーンを検索する場合について示している。
図2において、ユーザが、ユーザ操作部5からナレーションのシーンを検索するよう指示した場合、字幕情報検索部6は、ユーザー操作部5からの検索命令を取得し、字幕情報蓄積部4に対して蓄積されている字幕情報を転送するよう指示する。
【0025】
字幕情報検索部6においては、この指示により字幕情報蓄積部4から蓄積されている字幕情報が転送されてきた後、転送されてきた字幕情報と検索条件(この場合ナレーションのシーン)とを比較し、条件が合致する字幕情報を探し出す。探し出した字幕情報の提示タイミング情報をもとに映像・音声蓄積部2に該当する映像・音声の再生を指示し、また、字幕情報蓄積部4には該当する字幕情報を再生するよう指示する。
【0026】
これらの指示に従って、映像・音声蓄積部2では該当する提示タイミングの映像・音声を再生し、また、字幕情報蓄積部4では該当する字幕情報を再生し、これら再生された映像・音声および字幕情報は検索結果出力部7から出力される。
【0027】
【発明の効果】
本発明によれば、コンテンツ内の映像や音声を検索する際に、映像および音声に対して何らの信号処理を施す必要がなく、また、映像や音声に関するキーワード等の内容を記述した文字情報を新たに人手により作成することも必要としないで映像インデックスを作成することができ、所望の映像や音声の検索が可能となる。
【図面の簡単な説明】
【図1】 本発明映像・音声検索装置の構成をブロック図にて示している。
【図2】 図1中の字幕情報検索部が字幕情報の検索を行うときに図1中の他の部分とどのような順序で、どのようなやりとりを行って検索を行うかを示している。
【符号の説明】
1 多重分離処理部
2 映像・音声蓄積部
3 字幕データ処理部
4 字幕情報蓄積部
5 ユーザ操作部
6 字幕情報検索部
7 検索結果出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video / audio search apparatus for searching for a desired video or audio from contents transmitted by broadcasting or communication or recorded in a recording apparatus such as a VTR or a video disc.
[0002]
[Prior art]
Conventionally, in order to search for a desired video or audio in the content, a method for performing a certain signal processing on the video or audio to search for the video or audio, or a character that describes contents such as keywords related to the video or audio. There was a method of creating information manually and searching using this information.
[0003]
[Problems to be solved by the invention]
However, in the conventional method, it is necessary to perform some signal processing on the video and audio, or to manually create character information describing the content of keywords such as video and audio. In addition, there is a problem to be solved that if the signal processing or the creation of the character information is mistaken, it becomes impossible to search for the correct video and audio.
[0004]
It is an object of the present invention to provide a new video / audio search that does not require any signal processing on video or audio, or newly creates text information describing the content of keywords such as video and audio. To provide an apparatus.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the video / audio search device of the present invention is a device for searching for specific video and / or audio from content consisting of video and audio associated with subtitle data , wherein the subtitle data is , Having color information corresponding to subtitle sentences color-coded in advance to distinguish the role of the speaker in the video, inputting the content, separating the video and audio from the subtitle data, and the video and audio When means for extracting the caption data together with time information, which is information for synchronization, from the extracted time information, the presentation timing information of time at which the caption text data representing a timing that will be presented in synchronization with video means for detecting as information from the subtitle data the extracted speaker extracting color information of the caption text, to identify the speaker role in the video associated with the extracted color information It means for generating a role information, when extracting the caption data, extracts the presentation position of the caption text on the screen in the image, appearing position in speaker screen nearest the screen on the extracted presentation position detecting and means for generating the information of the detected emerged position as appearance position information of the speakers, by the symbol character except phonetic characters used in the caption text, determine the type of the subtitle text that the extracted means for generating information on the type of the discriminated caption text as additional information of the caption text, and video and audio storage means for recording information of the video and audio, subtitle data associated with the video and audio information Subtitle information accumulating means for recording the presentation timing information and the generated presentation timing information in a state linked with the speaker role information, the speaker appearance position information, and the additional information as subtitle information; And / or on the basis of the subtitle information specified to retrieve voice, subtitle information that matches searched from the subtitle information storage means, and means for specifying a presentation timing information corresponding to the caption information searched, and the detected And means for instructing the video / audio storage means to reproduce video and audio corresponding to the presentation timing information.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on an embodiment of the invention with reference to the accompanying drawings.
FIG. 1 is a block diagram showing the configuration of the video / voice search apparatus of the present invention.
In FIG. 1, 1 is a demultiplexing processing unit, 2 is a video / audio storage unit, 3 is a caption data processing unit, 4 is a caption information storage unit, 5 is a user operation unit, 6 is a caption information search unit, and 7 is a search. It is a result output part.
In the present invention, the content is obtained by adding subtitle data encoded as text data to media presented by video and audio by television broadcasting or VTR, or audio by radio broadcasting or the like. Define.
[0007]
With reference to FIG. 1, the operation of the video / voice search apparatus of the present invention will be described.
When caption data is transmitted by broadcasting or communication, or is multiplexed with content recorded on a recording device such as a VTR or a video disc, the content is input to the demultiplexing processing unit 1.
[0008]
The demultiplexing processing unit 1 separates the input content into video / audio and caption data, and also extracts time information necessary for synchronizing the caption data with the video / audio. The separated video / audio is recorded in the video /
[0009]
In the case of caption data of content transmitted by a communication type service other than the above or delivered by an external storage medium such as a floppy disk, the video and audio of the content are recorded in the video /
[0010]
The caption
[0011]
First, the presentation timing extraction unit 3-a extracts caption sentence presentation timing information. Here, the presentation timing information of the caption text when it is presented in synchronization with the video is detected from the input time information.
[0012]
The color information extraction unit 3-b extracts color information of the caption text. The color of the subtitle text is, for example, in the subtitles for the hearing impaired, the subtitle text of the main characters, such as the hero of the drama and the narrator of the documentary program, is yellow, and cyan is used other than the main characters. The subtitle text is color-coded to clarify the correspondence between the subtitles of the characters. Therefore, it is possible to detect the role information of the speaker corresponding to the caption from the extracted caption text color information.
[0013]
The presentation position information extraction unit 3-c extracts the presentation position of the caption text on the screen. In the subtitle sentence, when there are a plurality of characters on the same screen and are talking, the subtitles spoken by the characters are presented in the portion closest to each character. Therefore, the appearance position on the screen of the speaker can be detected from the extracted presentation position of the caption sentence.
[0014]
The additional information extraction unit 3-d uses symbol characters other than phonetic characters in the caption text, determines the type of the caption text, and creates additional information of the caption text. Types of symbol characters used in subtitle sentences and examples of use: a. ~ P. Shown in
a. Speaker name :() + serif use examples (A's) Hello b. Explanation of sound: ()
Usage example (knock)
(Whistle)
In this example, a. Unlike the speaker name of, there is no sentence after ().
c. Quotes, sayings, lyrics, etc. in the dialogue: “”
Example of use "Old to cat"
d. Book title, title, song title, program title, etc .: “”
Usage example "Manyoshu"
e. Narration: <>
Usage example <Narration is described>
f. Monologue: <<
Example of use
[0016]
g. musics:
[Outside 1]
Example of use [outside 1]
h. Musical instrument: [Outside 1] + ()
Usage example [Outside 1] (Futee)
i. Song name: [Outside 1] + ("")
Usage example [Outside 1] ("Song Title")
j. Lyrics: [Outside 1] + ""
Example of use [outside 1] “Kimigayo is ...”
[0017]
k. Audio outside the scene:
[Outside 2]
Example use [outside 2] (M) Hello l. Phone bell:
[Outside 3]
Usage example [Outside 3] (However, [Outside 3] blinks and displays)
m. Voice of the phone: [Outside 3] + line or [Outside 3] + (speaker name) + line usage example [Outside 3] (Mr. A)
n. Situation description:
[Outside 4]
Example of use [Outside 5]
o. Intercom, wireless, etc .: [Outside 4] + Line or [Outside 4] + (Speaker name) + Line usage example [Outside 6]
(Mr. A) OK p. Continue with the text on the next page: ⇒
Example usage page 1 Hikatakata no Hikaridoki Spring Day⇒
From these symbolic characters, the additional information extraction unit 3-d may, as additional information of the subtitle sentence, for example, a caption name such as a speaker name of the subtitle sentence, whether the subtitle sentence is a speech, a sound description, or a situation description. The type of line, whether it is a normal line, narration, monologue, lyrics, etc., and the voice to the line comes from outside the scene, from the phone, or from the radio It is possible to detect additional information such as whether or not
[0020]
The subtitle text detected and output by the subtitle
[0021]
As described above, the subtitle information of the subtitle added to the content is recorded and stored in the subtitle
[0022]
A more specific description will be given with reference to FIG. 1 and FIG.
The user designates a target to be searched from the
[0023]
First, the subtitle
[0024]
FIG. 2 shows other parts shown in FIG. 1 when the subtitle
FIG. 2 particularly shows a case where a narration scene in a program is searched.
In FIG. 2, when the user instructs the
[0025]
In the subtitle
[0026]
In accordance with these instructions, the video /
[0027]
【The invention's effect】
According to the present invention, it is not necessary to perform any signal processing on the video and audio when searching for video and audio in the content, and character information describing the content of keywords such as video and audio is stored. A video index can be created without the need for new manual creation, and a desired video or audio can be searched.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration of a video / voice search apparatus according to the present invention.
FIG. 2 shows in what order and what exchange is performed with the other parts in FIG. 1 when the subtitle information search unit in FIG. 1 searches for subtitle information. .
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1
Claims (1)
前記字幕データは、予め映像内の話者の役柄を区別するために色分けされた字幕文に対応する色情報を有し、
前記コンテンツを入力し、映像及び音声と字幕データとを分離して、当該映像及び音声と同期をとるための情報である時刻情報とともに当該字幕データを抽出する手段と、
前記抽出した時刻情報から、当該字幕文データが映像に同期して提示されるタイミングを表す時刻の情報を提示タイミング情報として検出する手段と、
前記抽出した字幕データから、字幕文の色情報を抽出し、抽出した色情報に関連付けられた映像内の話者の役柄を特定する話者の役柄情報を生成する手段と、
前記字幕データを抽出する際に、前記映像における画面上の字幕文の提示位置を抽出し、抽出した提示位置に最も近い画面内の話者の画面上における登場位置を検出し、検出した登場位置の情報を該話者の登場位置情報として生成する手段と、
字幕文に用いられている表音文字以外の記号文字によって、前記抽出した字幕文の種類を判別し、判別した字幕文の種類の情報を当該字幕文の付加情報として生成する手段と、
前記映像及び音声の情報を記録する映像・音声蓄積手段と、
該映像及び音声の情報に関連付けられた字幕データと前記生成した提示タイミング情報とを、字幕情報としての前記話者の役柄情報、話者の登場位置情報、及び付加情報とリンクさせた状態で記録する字幕情報蓄積手段と、
所望の映像及び/又は音声を検索するのに指定された字幕情報に基づいて、合致する字幕情報を前記字幕情報蓄積手段から探し出し、探し出した字幕情報に対応する提示タイミング情報を特定する手段と、
前記検出した提示タイミング情報に対応する映像及び音声の再生を前記映像・音声蓄積手段に指示する手段とを備えることを特徴とする映像・音声検索装置。An apparatus for searching for specific video and / or audio from content consisting of video and audio associated with subtitle data,
The caption data has color information corresponding to caption sentences that are color-coded in advance to distinguish the role of the speaker in the video,
Means for inputting the content, separating video and audio and caption data, and extracting the caption data together with time information which is information for synchronizing with the video and audio;
From the extracted time information, and means for detecting information of a time at which the caption text data representing a timing that will be presented in synchronization with the video as the presentation timing information,
Means for extracting subtitle sentence color information from the extracted subtitle data, and generating speaker role information for specifying the speaker role in the video associated with the extracted color information;
When extracting the caption data, the presentation position of the caption sentence on the screen in the video is extracted, the appearance position on the screen of the speaker within the screen closest to the extracted presentation position is detected, and the detected appearance position the information and means to generate as appeared position information of the speaker,
By the symbol character except phonetic characters used in the caption text, and means for generating and determine the type of caption text that the extracted, the type of information discriminated caption text as additional information of the caption text,
Video / audio storage means for recording the video and audio information;
Caption data associated with the video and audio information and the generated presentation timing information are recorded in a state of being linked to the speaker role information, speaker appearance position information, and additional information as caption information. Subtitle information storage means,
Means for searching for matching subtitle information from the subtitle information storage means based on subtitle information designated for searching for desired video and / or audio, and specifying presentation timing information corresponding to the searched subtitle information;
A video / audio search device comprising: means for instructing the video / audio storage means to reproduce video and audio corresponding to the detected presentation timing information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000242371A JP4172904B2 (en) | 2000-08-10 | 2000-08-10 | Video / voice search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000242371A JP4172904B2 (en) | 2000-08-10 | 2000-08-10 | Video / voice search device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002056006A JP2002056006A (en) | 2002-02-20 |
JP4172904B2 true JP4172904B2 (en) | 2008-10-29 |
Family
ID=18733402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000242371A Expired - Fee Related JP4172904B2 (en) | 2000-08-10 | 2000-08-10 | Video / voice search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4172904B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003018491A (en) * | 2001-07-04 | 2003-01-17 | Sony Corp | Caption display device and method |
WO2006022071A1 (en) * | 2004-08-25 | 2006-03-02 | Matsushita Electric Industrial Co., Ltd. | Video display and video displaying method |
JP2006279312A (en) * | 2005-03-28 | 2006-10-12 | Pioneer Electronic Corp | Closed-captioned program recording/reproducing device and closed-captioned program recording/reproducing method |
KR100765568B1 (en) | 2005-06-03 | 2007-10-09 | 엘지전자 주식회사 | Television receiver and method for searching and regenerating recorded broadcasting using script |
KR100767676B1 (en) * | 2005-08-22 | 2007-10-17 | 엘지전자 주식회사 | Video apparatus and method for scanning image thereof |
KR101137059B1 (en) * | 2005-09-13 | 2012-04-19 | 엔에이치엔(주) | Method and system for indexing moving picture |
CN101312506B (en) * | 2007-05-21 | 2010-12-22 | Nec卡西欧移动通信株式会社 | Captioned video playback apparatus |
WO2009066397A1 (en) * | 2007-11-22 | 2009-05-28 | Endless Co., Ltd. | Retrieval device and retrieval system |
JP4839488B2 (en) * | 2007-12-07 | 2011-12-21 | Necカシオモバイルコミュニケーションズ株式会社 | Subtitled video playback apparatus and method, and program |
-
2000
- 2000-08-10 JP JP2000242371A patent/JP4172904B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002056006A (en) | 2002-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3953886B2 (en) | Subtitle extraction device | |
JP4127668B2 (en) | Information processing apparatus, information processing method, and program | |
JP4873018B2 (en) | Data processing apparatus, data processing method, and program | |
WO2004002144A1 (en) | Metadata preparing device, preparing method therefor and retrieving device | |
JP4172904B2 (en) | Video / voice search device | |
JP3781715B2 (en) | Metadata production device and search device | |
JP2004265376A (en) | Method and device for selecting recorded object from database stored in memory | |
JP2008047998A (en) | Moving video reproducer, and moving video reproducing method | |
JPH10116474A (en) | Data storing medium, data writing device, data reproducing device therefor, and program storing medium | |
WO2021167238A1 (en) | Method and system for automatically creating table of contents of video on basis of content | |
JP3998187B2 (en) | Content commentary data generation device, method and program thereof, and content commentary data presentation device, method and program thereof | |
KR100393026B1 (en) | Portable CD player displaying caption data and audio CD having caption index data and System for providing caption data | |
JP2008059343A (en) | Information processing system and program | |
JP4364850B2 (en) | Audio playback device | |
JP2005352330A (en) | Speech division recording device | |
KR101709053B1 (en) | Caption data structure and caption player for synchronizing syllables between a sound source and caption data | |
JP4080965B2 (en) | Information presenting apparatus and information presenting method | |
JP5242826B1 (en) | Information processing apparatus and information processing method | |
KR20010092899A (en) | Method of mpeg-7 meta data hiding and detection to retrieve multimedia for multimedia indexing retrieval system | |
JP2002084505A (en) | Apparatus and method for shortening video reading time | |
JP2853258B2 (en) | Karaoke equipment | |
KR20060027973A (en) | Apparatus for reproducing multimedia file and method of the same | |
JP2005070472A (en) | Recorded medium play-back device, database server, recorded medium play-back method, and program | |
JP2002324071A (en) | System and method for contents searching | |
JP2010008938A (en) | Voice recorder and speech recording method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080404 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20080404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080722 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080812 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140822 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |