JP2006279290A - Program recording apparatus, program recording method, and program recording program - Google Patents
Program recording apparatus, program recording method, and program recording program Download PDFInfo
- Publication number
- JP2006279290A JP2006279290A JP2005092578A JP2005092578A JP2006279290A JP 2006279290 A JP2006279290 A JP 2006279290A JP 2005092578 A JP2005092578 A JP 2005092578A JP 2005092578 A JP2005092578 A JP 2005092578A JP 2006279290 A JP2006279290 A JP 2006279290A
- Authority
- JP
- Japan
- Prior art keywords
- time
- chapter
- keyword
- video
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は組録画装置、番組録画方法および番組録画プログラムに関し、特に字幕放送を受信して、その字幕放送を記録する際にチャプタを付加して記録する組録画装置、番組録画方法および番組録画プログラムに関する。 The present invention relates to a group recording apparatus, a program recording method, and a program recording program, and more particularly, to a group recording apparatus, a program recording method, and a program recording program for receiving a caption broadcast and adding a chapter when recording the caption broadcast. About.
DVDレコーダやHDDレコーダに代表されるような、放送受信装置が受信した所定の番組をデジタルデータとして録画することが可能な番組録画装置が普及してきている。 2. Description of the Related Art Program recorders capable of recording a predetermined program received by a broadcast receiving apparatus as digital data, such as a DVD recorder or an HDD recorder, have become widespread.
一般的に、従来の番組録画装置は録画する番組に関する情報(例えば、ユーザが入力する番組の名称や録画時刻等。以下、番組情報と呼ぶ。)を記録媒体に記録しておき、再生時において、その番組情報を参照して録画されている番組をユーザに認識させる機能を搭載している。さらに、その番組情報を用いて頭出し(ユーザが選択した番組をその冒頭から再生すること)ができるものが存在する。録画された番組の冒頭以外の部分から再生を行う場合には、ユーザが画面に表示されている映像を参照しながら、早送りや巻き戻しを実行する必要がある。 In general, a conventional program recording apparatus records information on a program to be recorded (for example, a program name and recording time input by a user, hereinafter referred to as program information) on a recording medium, and at the time of reproduction. In addition, a function for allowing a user to recognize a recorded program by referring to the program information is installed. In addition, there is a program that can use the program information to cue (play a program selected by the user from the beginning). When playback is performed from a portion other than the beginning of the recorded program, it is necessary for the user to execute fast forward or rewind while referring to the video displayed on the screen.
画面を参照することなく、ユーザが所望する箇所から映像を再生させる技術として、所定の文字列(以下、キーワードと呼ぶ)を入力し、その入力された文字列から、記録媒体に記録された番組の再生開始箇所を特定する技術が知られている(例えば、特許文献1参照。)。 As a technique for reproducing a video from a location desired by a user without referring to a screen, a predetermined character string (hereinafter referred to as a keyword) is input, and a program recorded on the recording medium from the input character string. A technique for identifying the reproduction start location is known (for example, see Patent Document 1).
特許文献1(特開2000−287156号公報)に記載の技術は、MPEG2エンコード部が、チューナから入力されるテレビジョン信号に含まれるAVデータをMPEG2方式を用いて圧縮符号化し、記録部に出力している。またVBIデータ抽出部は、テレビジョン信号のVBIに含まれる付加情報を抽出して記録部に出力している。記録部5、MPGファイルとVBIファイルを対応付けてハードディスク7記録する。検索再生部は、ユーザが入力する文字列をキーワードとして、VBIファイルの中身を検索し、合致する台詞等に対応するMPGファイルを読み出して、その台詞の位置からデコードしてモニタに出力している。
In the technique described in Patent Document 1 (Japanese Patent Laid-Open No. 2000-287156), an MPEG2 encoding unit compresses and encodes AV data included in a television signal input from a tuner using the MPEG2 method, and outputs it to a recording unit is doing. The VBI data extraction unit extracts additional information included in the VBI of the television signal and outputs it to the recording unit. The
また、番組を放送する技術の進歩に伴って、放送用の映像/音声データに対応して字幕データを送信する、いわゆる字幕放送と呼ばれる番組も増えてきている。字幕放送を番組録画装置で録画する技術が知られている(例えば、特許文献2参照)。 In addition, with the advancement of technology for broadcasting programs, so-called subtitle broadcast programs that transmit subtitle data corresponding to video / audio data for broadcasting are also increasing. A technique for recording caption broadcasts with a program recording device is known (see, for example, Patent Document 2).
特許文献2(特開2004−289381号公報)に記載の技術は、テレビジョン放送波から抽出される文字情報の内容をDVDビデオフォーマットで規定されるサブピクチャデータに変換している。そして、サブピクチャデータを、映像や音声のデータとあわせてDVDに記録している。 The technique described in Patent Document 2 (Japanese Patent Application Laid-Open No. 2004-289181) converts the content of character information extracted from a television broadcast wave into sub-picture data defined by the DVD video format. Sub-picture data is recorded on a DVD together with video and audio data.
さらに、録画された字幕放送を任意の位置から再生する技術として、例えば、特許文献3(特開2004−080476号公報)に記載の技術が知られている。 Further, as a technique for reproducing a recorded subtitle broadcast from an arbitrary position, for example, a technique described in Patent Document 3 (Japanese Patent Application Laid-Open No. 2004-080476) is known.
特許文献3に記載の技術は、ユーザから番組の録画指令を受けたとき、デマルチプレクサから出力されるその番組を構成するパーシャルTSを内蔵ハードディスクドライブに書き込むと共に、字幕文字データとその提示時刻情報とを対応付けたテーブルを作成し、録画番組とリンクさせて記憶している。字幕文字による映像検索指令を受けたときには、文字入力画面をOSD表示し、文字入力を受け付ける。入力された文字に一致する或いは類似する字幕文字をテーブルから検索し、その字幕文字の提示時刻の映像を再生している。
In the technique described in
このような番組録画装置で字幕放送を記憶媒体(例えば、DVDディスク)に記録する場合、所望の場面から映像を再生させるための章ごとの区切り符号(以下、チャプタと呼ぶ。)を付与することがある。 When subtitle broadcasts are recorded on a storage medium (for example, a DVD disc) with such a program recording apparatus, a delimiter for each chapter (hereinafter referred to as a chapter) for reproducing a video from a desired scene is given. There is.
上記特許文献に記載の技術を適用して、チャプタを付加する箇所を特定する場合、番組中にそのキーワードが短時間で連続して出現すると、チャプタを付加する箇所も連続的に指定されてしまう。そのため、最適な再生開始箇所を特定することが困難になってしまう場合がある。さらに、キーワードが複数回出現する場合、チャプタを付加する箇所はキーワードが出現する度に指定されてしまう。付与することが可能なチャプタの個数に上限があると、番組途中でその上限に達してしまい、所望の再生開始箇所を特定することができなくなってしまうことがある。 When applying the technique described in the above-mentioned patent document and specifying the part to which the chapter is added, if the keyword appears continuously in a short time in the program, the part to which the chapter is added is also continuously specified. . For this reason, it may be difficult to specify the optimum playback start location. Furthermore, when a keyword appears multiple times, the part to which a chapter is added is specified each time the keyword appears. If there is an upper limit on the number of chapters that can be assigned, the upper limit may be reached in the middle of the program, making it impossible to specify a desired playback start location.
字幕データからキーワードが出現する時刻を特定してチャプタを付与する場合において、そのキーワードが短時間で連続的に出現するときでも、再生開始箇所として適切な箇所を特定することができる技術が望まれている。さらに、付与することが可能なチャプタの個数に上限があるときに、その上限値に対応してチャプタを付与することができる技術が望まれている。 In the case of assigning chapters by specifying the time at which a keyword appears from subtitle data, there is a need for a technology that can identify an appropriate location as a playback start location even when the keyword appears continuously in a short time. ing. Furthermore, when there is an upper limit to the number of chapters that can be assigned, there is a demand for a technique that can assign chapters corresponding to the upper limit value.
また、番組中の音声を放送局に備えられた字幕文字変換器を用いて、リアルタイムで字幕文字へ変換して映像に合わせて放送する字幕放送(以下、リアルタイム字幕放送と呼ぶ)も実現している。リアルタイム字幕放送は、音声が出力される時刻とその音声に対応する字幕が表示される時刻とに時間差が存在する。したがって、リアルタイム字幕放送の字幕データを用いてチャプタを付与すると、そのチャプタで特定された再生開始箇所から所望の音声が出力されない場合がある。 In addition, subtitle broadcast (hereinafter referred to as real-time subtitle broadcast) that converts audio in a program into subtitle characters in real time using a subtitle character converter provided in the broadcast station and broadcasts in accordance with the video is also realized. Yes. In real-time subtitle broadcasting, there is a time difference between the time when audio is output and the time when subtitles corresponding to the audio are displayed. Therefore, when a chapter is assigned using subtitle data of real-time subtitle broadcasting, desired audio may not be output from the reproduction start location specified by the chapter.
通常の字幕放送とリアルタイム字幕放送とを混在させて録画する場合でも、適切にチャプタを付与することができる技術が望まれている。 There is a demand for a technique capable of appropriately assigning chapters even when normal subtitle broadcasting and real-time subtitle broadcasting are mixed and recorded.
本発明が解決しようとする課題は、字幕データからキーワードが出現する時刻を特定して書き込み用データにチャプタを付与する場合において、そのキーワードが字幕として出現する間隔に対応して、再生開始箇所として適切な箇所を特定することができる技術を提供することにある。 The problem to be solved by the present invention is that when specifying a time at which a keyword appears from subtitle data and assigning a chapter to the data for writing, as a playback start location corresponding to an interval at which the keyword appears as a subtitle The object is to provide a technique capable of specifying an appropriate location.
さらに、本発明が解決しようとする他の課題は、書き込み用データに付与することが可能なチャプタの個数に上限があるときに、その上限値に対応してチャプタを付与することができる技術を提供することにある。 Furthermore, another problem to be solved by the present invention is a technique that can assign chapters corresponding to the upper limit value when there is an upper limit on the number of chapters that can be assigned to the write data. It is to provide.
さらに、本発明が解決しようとする他の課題は、通常の字幕放送とリアルタイム字幕放送とを混在させて録画する場合でも、適切にチャプタを付与することができる技術を提供することにある。 Furthermore, another problem to be solved by the present invention is to provide a technique capable of appropriately assigning chapters even when recording is performed by mixing normal subtitle broadcasting and real-time subtitle broadcasting.
以下に、[発明を実施するための最良の形態]で使用される番号を用いて、課題を解決するための手段を説明する。これらの番号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために付加されたものである。ただし、それらの番号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。 The means for solving the problem will be described below using the numbers used in [Best Mode for Carrying Out the Invention]. These numbers are added to clarify the correspondence between the description of [Claims] and [Best Mode for Carrying Out the Invention]. However, these numbers should not be used to interpret the technical scope of the invention described in [Claims].
上記課題を解決するために、以下に述べる番組録画装置を構成する。その番組録画装置は、字幕放送を受信する受信装置(2)から供給される字幕データ付テレビジョン信号(30)に応答して、前記字幕データ付テレビジョン信号(30)から字幕データ(31)と映像音声データ(32)とを抽出するデコーダ装置(4)と、前記字幕データ(31)と前記映像音声データ(32)とに基づいてチャプタ(頭出し用章区切り)付書き込み用画像(39)を生成する書き込み用データ生成装置(1)とを具備して構成する。ここで、前記映像音声データ(32)は、前記字幕放送の映像と音声とを含むものである。
そして、前記書き込み用データ生成装置(1)は、予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブル(33)を生成する字幕データ(31)解析部(12)と、前記初期チャプタ情報テーブル(33)に基づいて前記チャプタ候補時刻を補正して、チャプタ情報テーブル(35)を生成するチャプタ情報テーブル補正部(13)と、前記チャプタ付映像音声記録媒体(39)を生成する書き込み用画像生成部(14)とを有して構成する。
In order to solve the above problems, a program recording apparatus described below is configured. The program recording device responds to the television signal with caption data (30) supplied from the receiving device (2) that receives the caption broadcast, and the caption data (31) from the television signal with caption data (30). And a decoder device (4) for extracting the video and audio data (32), and a writing image (39 with a chapter delimiter for cueing) based on the caption data (31) and the video and audio data (32). ) For generating data for writing (1). Here, the video / audio data (32) includes the video and audio of the subtitle broadcast.
Then, the writing data generation device (1) specifies a time at which a preset keyword is displayed as a caption as a chapter candidate time, and associates the keyword with the chapter candidate time to an initial chapter information table ( 33) The caption information table correction for generating the chapter information table (35) by correcting the chapter candidate time based on the subtitle data (31) analysis unit (12) and the initial chapter information table (33). And a writing image generating unit (14) for generating the chaptered video / audio recording medium (39).
前記字幕データ(31)解析部(12)は、前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止する。
さらに、前記チャプタ情報テーブル補正部(13)は、前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブル(35)を生成する。
そして、前記書き込み用画像生成部(14)は、前記チャプタ情報テーブル(35)に示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データ(34)に前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体(39)を生成する。
上述したような番組録画装置を構成することで、字幕データ(31)を用いてチャプタを生成することが可能になり、そのチャプタを使用して番組の頭出しを行うときに、出力される音声データとのずれを抑制することが可能になる。
The caption data (31) analysis unit (12) determines a time when the keyword newly appears when the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time. It is prohibited to specify the candidate time.
Further, the chapter information table correction unit (13) specifies a chapter setting time based on a time difference between the chapter candidate time and a time at which a sound corresponding to the keyword is output, and the chapter setting time, the keyword, Are associated with each other to generate the chapter information table (35).
Then, the writing image generation unit (14) attaches the chapter information to the writing video / audio data (34) based on the chapter setting time shown in the chapter information table (35), thereby adding the chapter. A video / audio recording medium (39) is generated.
By configuring the program recording apparatus as described above, it is possible to generate chapters using the subtitle data (31), and the audio output when the program is cued using the chapters. Deviation from data can be suppressed.
また、その番組録画装置において、前記字幕データ(31)解析部(12)は、前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブル(33)を構成する。このとき、前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するときには、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定する。さらに、前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成する。そのうえで、前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブル(33)に追加する。 In the program recording apparatus, the caption data (31) analysis unit (12) generates a record in which the keyword and the chapter candidate time are associated with each other, and configures the initial chapter information table (33). At this time, when the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the time at which the keyword newly appears is specified as a new chapter candidate time. Further, a new record is generated by associating a keyword appearance interval, which is a time difference between the chapter candidate time and the new chapter candidate time, the new chapter candidate time, and the keyword. In addition, when the total number of records exceeds a predetermined number, records with a short appearance interval are deleted, and new records are added to the initial chapter information table (33).
また、その番組録画装置において、前記チャプタ情報補正部は音声認識部を含んで構成されることが好ましい。そして、前記音声認識部は、前記書き込み用映像音声データ(34)に含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定する。また、チャプタ情報補正部は、前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。 In the program recording apparatus, it is preferable that the chapter information correction unit includes a voice recognition unit. The voice recognition unit executes voice recognition of the voice data included in the video / audio data for writing (34), and specifies the time when the keyword is output as voice as the keyword voice output time. The chapter information correcting unit corrects the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time, and specifies the chapter setting time.
その番組録画装置において、前記音声認識部は、前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するように機能するものであることが好ましい。そして、前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定する。また、チャプタ情報補正部は、前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないときには、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。 In the program recording apparatus, it is preferable that the voice recognition unit functions to execute voice recognition in a predetermined time range using the chapter candidate time as a reference time. When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time. Further, the chapter information correction unit, based on the time difference between the start time of the keyword speech recognition and the chapter candidate time when the speech corresponding to the keyword is not recognized by the speech recognition performed in the time range. The chapter setting time is specified by correcting the chapter candidate time.
その番組録画装置において、前記音声認識部は、予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するような機能を備えて構成されるものであってもよい。その際、前記チャプタ情報テーブル補正部(13)は、その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。 In the program recording apparatus, the voice recognition unit specifies a voice recognition start time for starting voice recognition based on a predetermined recognition time, and performs voice recognition within a predetermined time range from the specified voice recognition start time. It may be configured to have a function for executing. At that time, the chapter information table correction unit (13) corrects the chapter candidate time based on the correction time determined in advance based on the keyword voice output time obtained by the voice recognition, and sets the chapter setting time. Identify.
また、その番組録画装置において、さらに、前記映像音声データ(32)を処理して前記書き込み用映像音声データ(34)を生成する画像処理部を含む構成であることが好ましい。ここで、前記画像処理部は、前記映像音声データ(32)に対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データ(32)とを対応付けて前記書き込み用映像音声データ(34)を生成する。そして、前記チャプタ情報テーブル補正部(13)は、前記書き込み用映像音声データ(34)に含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。 The program recording apparatus preferably further includes an image processing unit that processes the video / audio data (32) to generate the video / audio data for writing (34). Here, the image processing unit generates program type information indicating whether the subtitle broadcast corresponding to the video / audio data (32) is a live broadcast program or a recorded broadcast program, and the program type information and the video / audio are displayed. The video / audio data for writing (34) is generated in association with the data (32). Then, the chapter information table correcting unit (13) corrects the chapter candidate time based on the program type information included in the video / audio data for writing (34) to specify the chapter setting time.
また、以下の方法で番組録画を実行することで上記課題を解決することが可能になる。その方法は、下記行為の連鎖であり、その中で述べる映像音声データ(32)は字幕放送の映像データと音声データとを含むものであるとする。
上記課題を解決するために、
[a]字幕データ付テレビジョン信号(30)に応答して、前記字幕データ付テレビジョン信号(30)から字幕データ(31)と映像音声データ(32)とを抽出するステップと、
[b]予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブル(33)を生成するステップと、
[c]前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
[d]前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブル(35)を生成するステップと、
[e]前記字幕データ(31)と前記映像音声データ(32)と前記チャプタ情報テーブル(35)に示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データ(34)に前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体(39)を生成するステップ
を具備する番組録画方法を実行する。
Moreover, it becomes possible to solve the said subject by performing program recording by the following methods. The method is a chain of the following actions, and the video / audio data (32) described therein includes video data and audio data of subtitle broadcasting.
To solve the above problem,
[A] In response to the television signal with caption data (30), extracting caption data (31) and video / audio data (32) from the television signal with caption data (30);
[B] identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and associating the keyword with the chapter candidate time to generate an initial chapter information table (33);
[C] When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
[D] A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter setting time and the keyword are associated with each other to determine the chapter information table (35). A step of generating
[E] Assigning the chapter information to the video / audio data for writing (34) based on the chapter setting time indicated in the caption data (31), the video / audio data (32), and the chapter information table (35). Then, the program recording method comprising the step of generating the chaptered video / audio recording medium (39) is executed.
その番組録画方法において、前記[b]ステップは、下記複数のステップを含むものであることが好ましい。その複数のステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブル(33)を構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブル(33)に追加するステップである。
In the program recording method, the step [b] preferably includes the following steps. The multiple steps are
Generating a record associating the keyword with the chapter candidate time to configure the initial chapter information table (33);
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of records exceeds a predetermined number, the record with a short appearance interval is deleted and a new record is added to the initial chapter information table (33).
その番組録画装置において、前記[d]ステップは、記複数のステップを含むものであることが好ましい。その複数のステップは、
前記書き込み用映像音声データ(34)に含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップである。
In the program recording apparatus, the [d] step preferably includes a plurality of steps. The multiple steps are
Executing voice recognition of voice data included in the video / audio data for writing (34) and specifying a time when the keyword is output as voice as a keyword voice output time;
The step of correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time.
その番組録画方法において、前記[d]ステップは、さらに下記複数のステップを具備するものでああってもよい。ここで、その複数のステップは、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップである。
In the program recording method, the step [d] may further include the following steps. Here, the multiple steps are:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. It is a step.
また、その番組録画方法において、前記[d]ステップは、さらに下記複数のステップを具備するものでああってもよい。ここで、その複数のステップは、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップである。
In the program recording method, the step [d] may further include the following steps. Here, the multiple steps are:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
This is a step of correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
その番組録画方法において、上述した[a]〜[e]ステップに加えてさらに、下記ステップを実行する。
上記課題を解決するために、
[f]前記映像音声データ(32)に対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データ(32)とを対応付けて前記書き込み用映像音声データ(34)を生成するステップと、
[g]前記書き込み用映像音声データ(34)に含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法を実行する。
In the program recording method, the following steps are executed in addition to the steps [a] to [e] described above.
To solve the above problem,
[F] Program type information indicating whether the caption broadcast corresponding to the video / audio data (32) is a live broadcast program or a recorded broadcast program is generated, and the program type information and the video / audio data (32) are generated. Generating the video / audio data for writing (34) in association with each other;
[G] A program recording method including a step of correcting the chapter candidate time based on the program type information included in the video / audio data for writing (34) is executed.
また、以下に示すコンピュータプログラムを組むことで上記課題を解決すること可能である。そのプログラムはコンピュータを字幕放送を受信する受信手段から供給される字幕データ付テレビジョン信号(30)に応答して、前記字幕データ付テレビジョン信号(30)から字幕データ(31)と映像音声データ(32)とを抽出するデコーダ手段と、前記字幕データ(31)と前記映像音声データ(32)とに基づいてチャプタ付映像音声記録媒体(39)を生成する書き込み用映像音声データ生成手段として機能させるプログラムである。さらに詳細には、そのプログラムは、前記書き込み用映像音声データ生成手段に、
[a]前記デコーダ手段から供給される前記字幕データ(31)と前記映像音声データ(32)とを受け取るステップと、前記映像音声データ(32)は前記字幕放送の映像データと音声データとを含み、
[b]予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブル(33)を生成するステップと、
[c]前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
[d]前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブル(35)を生成するステップと、
[e]前記字幕データ(31)と前記映像音声データ(32)と前記チャプタ情報テーブル(35)に示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データ(34)に前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体に書き込むためのデータ(39)を生成するステップ
を具備する方法を実行させる番組録画プログラムである。
Moreover, it is possible to solve the above problems by assembling the computer program shown below. The program responds to the television signal with caption data (30) supplied from the receiving means for receiving caption broadcast by the computer, and the caption data (31) and video / audio data from the television signal with caption data (30). (32) decoder function, and writing video / audio data generating means for generating a chaptered video / audio recording medium (39) based on the caption data (31) and the video / audio data (32). It is a program to let you. More specifically, the program is stored in the writing video / audio data generating means.
[A] receiving the caption data (31) and the video / audio data (32) supplied from the decoder means; and the video / audio data (32) includes video data and audio data of the caption broadcast. ,
[B] identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and associating the keyword with the chapter candidate time to generate an initial chapter information table (33);
[C] When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
[D] A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter setting time and the keyword are associated with each other to determine the chapter information table (35). Generating
[E] Assigning the chapter information to the video / audio data for writing (34) based on the chapter setting time indicated in the caption data (31), the video / audio data (32), and the chapter information table (35). A program recording program for executing a method comprising the step of generating data (39) to be written to the chaptered video / audio recording medium.
その番組録画プログラムにおいて、前記[b]ステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブル(33)を構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブル(33)に追加するステップ
を具備するものであってもよい。
In the program recording program, the [b] step includes:
Generating a record associating the keyword with the chapter candidate time to configure the initial chapter information table (33);
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of records exceeds a predetermined number, a step of deleting a record with a short appearance interval and adding a new record to the initial chapter information table (33) may be provided.
また、その番組録画プログラムにおいて、前記[d]ステップは、
前記書き込み用映像音声データ(34)に含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備するものであってもよい。
In the program recording program, the step [d] includes
Executing voice recognition of voice data included in the video / audio data for writing (34) and specifying a time when the keyword is output as voice as a keyword voice output time;
A step of correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time may be provided.
また、その番組録画プログラムにおいて、前記[d]ステップは、さらに、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備するものであってもよい。
In the program recording program, the step [d] further includes:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. It may comprise a step.
その番組録画プログラムにおいて、前記[d]ステップは、さらに、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップ
を具備するものであってもよい。
In the program recording program, the [d] step further includes:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
The keyword speech output time obtained by the speech recognition may be corrected based on a predetermined correction time to correct the chapter candidate time.
その番組録画プログラムにおいて、前記コンピュータを、さらに、前記映像音声データ(32)を処理して前記書き込み用映像音声データ(34)を生成する画像処理手段として機能させるプログラムであることが好ましい。そして、そのプログラムは前記書き込み用映像音声データ生成手段に、さらに、
[f]前記映像音声データ(32)に対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データ(32)とを対応付けて前記書き込み用映像音声データ(34)を生成するステップと、
[g]前記書き込み用映像音声データ(34)に含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する方法を実行させる番組録画プログラムであることが好ましい。
In the program recording program, it is preferable that the program further causes the computer to function as image processing means for processing the video / audio data (32) to generate the video / audio data for writing (34). Then, the program is further stored in the writing video / audio data generating means.
[F] Program type information indicating whether the caption broadcast corresponding to the video / audio data (32) is a live broadcast program or a recorded broadcast program is generated, and the program type information and the video / audio data (32) are generated. Generating the video / audio data for writing (34) in association with each other;
[G] It is preferable that the program recording program execute a method including a step of correcting the chapter candidate time based on the program type information included in the video / audio data for writing (34).
本発明によると、字幕データからキーワードが出現する時刻を特定してチャプタを付与する場合において、そのキーワードが短時間で連続的に出現するときでも、再生開始箇所として適切な箇所を特定することができる。 According to the present invention, when assigning chapters by specifying the time at which a keyword appears from subtitle data, even when the keyword appears continuously in a short time, it is possible to specify an appropriate location as a playback start location. it can.
さらに、本発明によると、付与することが可能なチャプタの個数に上限があるときに、その上限値に対応してチャプタを付与することができる。 Furthermore, according to the present invention, when there is an upper limit to the number of chapters that can be assigned, chapters can be assigned corresponding to the upper limit value.
さらに、本発明によると、通常の字幕放送とリアルタイム字幕放送とを混在させて録画する場合でも、適切にチャプタを付与することができる。 Furthermore, according to the present invention, even when normal subtitle broadcasting and real-time subtitle broadcasting are mixed and recorded, chapters can be appropriately assigned.
以下に、図面を参照して本発明を実施するための形態について説明を行う。以下の説明において、本実施の形態における番組録画システムが、受信した字幕放送をDVDディスクに記録するシステムである場合を例示して説明を行う。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In the following description, the case where the program recording system in the present embodiment is a system that records received subtitle broadcasts on a DVD disc will be described as an example.
図1は、本発明の実施の形態に構成を例示するブロック図である。図1を参照すると、本実施の形態のデジタル録画システムは、DVDデータ生成装置1と、放送受信装置2と、アンテナ3と、字幕放送デコーダ4と、入力装置5と、表示装置6と、DVDデータ書き込み装置7とを含んで構成されている。DVDデータ生成装置1は、本実施の形態の番組録画システムにおける記録用データを生成する情報処理装置である。以下の実施の形態において、DVDデータ生成装置1がパーソナルコンピュータである場合を例示し、通常パーソナルコンピュータに備えられている情報処理機能を用いて本発明を実現する場合に対応して説明を行う。また、以下の実施の形態において、受信した番組を記録するための記録媒体として、DVDディスクを用いる場合を例示して説明を行う。
FIG. 1 is a block diagram illustrating a configuration according to an embodiment of the present invention. Referring to FIG. 1, the digital recording system according to the present embodiment includes a DVD
図1に示されているように、DVDデータ生成装置1は、送受信部8と、演算処理部9と、主記憶部10と、複数の情報処理部(11〜14)と、大容量記憶装置15とを含んで構成されている。本実施の形態において、DVDデータ生成部14は、複数の情報処理機能ブロック(17〜20)で構成されている。また、大容量記憶装置15は、複数の情報格納部(21〜26)を含んで構成されている。図1に示されているように、DVDデータ生成装置1に備えられている各機能ブロック(8〜15)は、バス16を介して互いに接続されている。なお、DVDデータ生成装置1を構成する各機能ブロックの詳細は後述するものとする。
As shown in FIG. 1, the DVD
放送受信装置2は、字幕放送の受信を行い、受信した放送を所定の表示装置に表示させる機能を有する装置である。図1を参照すると、放送受信装置2は、アンテナ3を介して字幕放送を受信する場合の構成が例示されている。放送受信装置2は、受信した字幕放送52をMPEG2エンコード部11に供給する。MPEG2エンコード部11はその字幕放送から映像音声データを特定してMPEG2エンコードを行う。
The
字幕放送デコーダ4は、放送受信装置2が受信した字幕放送から、字幕データを抽出する装置である。
The
入力装置5は、キーボードやマウスなど、本体装置にデータを入力することが可能な機能を備える装置である。表示装置6は、CRTディスプレイや液晶表示装置など、画面に情報を表示する表示装置である。DVDデータ書き込み装置7は、DVDデータ生成装置1から供給される書き込み用DVDデータをDVDディスクに書き込む可能DVDドライブである。
The
以下に、DVDデータ生成装置1を構成する各ブロックについて説明を行う。DVDデータ生成装置1の送受信部8は、DVDデータ生成装置1の外部から供給されるデータを、DVDデータ生成装置1の内部で情報処理可能な形式に変換する通信インターフェースである。本実施の形態における送受信部8は、字幕放送デコーダ4から出力される字幕放送に関連するデータを受信し、そのデータを形式変換してバス16を介して所定の機能ブロックに供給している。また、本実施の形態の送受信部8が、入力装置5および表示装置6に接続され、それぞれの装置と送受信可能な構成であってもよい。
Below, each block which comprises the DVD
演算処理部9は、DVDデータ生成装置1に備えられた各種装置の制御やデータの処理を行うプロセッシングユニットである。本実施の形態において、演算処理部9は、DVDデータ生成装置1に備えられているCPU(Central Processing Unit:中央演算処理装置)である場合に対応して説明を行う。
The arithmetic processing unit 9 is a processing unit that controls various devices provided in the DVD
主記憶部10は、電気的にデータを記憶する記憶媒体である。主記憶部10は、演算処理部9がソフトウェアを実行する場合に、メインメモリとして用いられる。本実施の形態において、主記憶部10
がDVDデータ生成装置1に備えられたRAM(Random Access Memory)であることを前提に説明をおこなう。なお、本実施の形態における主記憶部10は、特定の半導体記憶装置に制限されるものではない。
The
Will be described on the assumption that the data is a RAM (Random Access Memory) provided in the DVD
MPEG2エンコード部11は、法送受信装置2から供給される字幕放送(映像/音声データ)に応答し、MPEG2規格に対応してMPEG2データ生成する圧縮画像生成機能ブロックである。
The
字幕データ解析部12は、字幕放送デコーダ4から供給される字幕データに応答して、その字幕データを解析する情報処理機能ブロックであり、受信する字幕データを随時解析し、予め設定されるキーワードと一致する字幕が表示される時刻を特定する。なお字幕データ解析部12の動作に関する詳細は、後述する。
The caption
チャプタ情報テーブル補正部13は、字幕データに基づいて、書き込み用DVDデータにチャプタ(章)をつける場合に、最適なチャプタを生成するための補正を行う情報処理機能ブロックである。
The chapter information
DVDデータ生成部14は、MPEG2エンコード部11、字幕データ解析部12およびチャプタ情報テーブル補正部13から供給される各種データに基づいて、書き込み用DVDデータを生成する情報処理機能ブロックである。上述したように、DVDデータ生成部14は、サムネイル画像作成部17と、ナビゲーションデータ作成部18と、メニュー画面作成部19と、書き込みデータ作成部20とを含んで構成されている。
The DVD
サムネイル画像作成部17は、DVDディスクに格納するサムネイル画像を生成する情報処理機能ブロックである。ナビゲーションデータ作成部18は、DVDディスクにMPEG2データを書き込むときのナビゲーションデータを生成する情報処理機能ブロックである。メニュー画面作成部19は、DVDディスクの作成に対応して、そのDVDディスクに格納するメニュー画面を生成する情報処理機能ブロックである。書き込みデータ作成部20は、MPEG2データ34をDVDディスクに書き込むための書き込み用データを生成する情報処理機能ブロックである。
The thumbnail
また、大容量記憶装置15は、DVDデータ生成装置1に備えられた情報記憶装置である。本実施の形態における大容量記憶装置15は、DVDデータ生成装置1への電源の供給が遮断された場合であっても、情報の保持を継続することが可能な記憶装置であることが好ましい。したがって、以下の実施の形態において、大容量記憶装置15がハードディスクドライブである場合に対応して説明を行う。
The
上述したように、大容量記憶装置15は、キーワードリスト格納部21と、最大チャプタ情報格納部22と、MPEG2データ格納部23と、DVDデータ格納部24と、チャプタ情報テーブル格納部25と、補正用データ格納部26とを含んで構成されている。
As described above, the
キーワードリスト格納部21は、チャプタを生成するときに用いられるキーワードを格納する情報格納部である。キーワードリスト格納部21は、少なくとも一つのキーワードを保持している。以下の実施の形態では、キーワードリスト格納部21は複数のキーワードを保持し、その複数のキーワードは、各情報処理部から読み出し可能な状態であるものとする。キーワードリストは、ユーザによってキーワードが手入力されるものをリストとして保持する場合や、EPG(電子番組表)情報から出演者名などを自動的に抽出することで生成される
最大チャプタ情報格納部22は、本実施の形態において、作成されるDVDディスクに付与することが可能なチャプタの最大数を格納する情報格納部である。最大チャプタ情報格納部22には、DVD規格で定められる最大チャプタ数と、ユーザが独自に設定する最大チャプタ数とが格納されている。付与するチャプタの上限を特定する時には、字幕データ解析部12は最大チャプタ情報格納部22を参照して、その最大チャプタ数を特定する。
The keyword
MPEG2データ格納部23は、MPEG2エンコード部11から出力されるMPEG2データを格納する情報格納部である。DVDデータ格納部24は、DVDデータ生成部14から出力される書き込み用データを格納する情報格納部である。チャプタ情報テーブル格納部25は、字幕データ解析部12が生成する初期チャプタ情報テーブル33およびチャプタ情報テーブル補正部13が生成するチャプタ情報テーブル35を格納する情報格納である。補正用データ格納部26は、チャプタ情報テーブル補正部13が初期チャプタ情報テーブル33の補正を実行するときに用いる補正用のデータを格納する情報格納部である。
The MPEG2
以下に、本実施の形態における詳細な構成を説明する。図2は、本実施の形態の番組録画システムにおける構成とデータの流れとを例示するブロック図である。図2に示されているように、字幕放送デコーダ4は、放送受信装置2と、MPEG2エンコード部11と、字幕データ解析部12とに接続されている。字幕データ解析部12はさらにチャプタ情報テーブル補正部13に接続されている。また、MPEG2エンコード部11は、サムネイル画像作成部17とナビゲーションデータ作成部18と書き込みデータ作成部20とに接続されている。また、チャプタ情報テーブル補正部13はさらに、サムネイル画像作成部17と、ナビゲーションデータ作成部18とに接続されている。サムネイル画像作成部17とナビゲーションデータ作成部18とは、さらにメニュー画面作成部19に接続されている。また、ナビゲーションデータ作成部18は、書き込みデータ作成部20に接続されている。書き込みデータ作成部20は、前述のMPEG2エンコード部11と、そのサムネイル画像作成部17と、メニュー画面作成部19とに接続されている。
The detailed configuration in the present embodiment will be described below. FIG. 2 is a block diagram illustrating a configuration and a data flow in the program recording system of the present embodiment. As shown in FIG. 2, the
図2を参照すると、本実施の形態の放送受信装置2は、放送の受信に対応して受信放送データ30を出力する。放送受信装置2は、その受信放送データ30に基づいて、映像/音声データ32をMPEG2エンコード部11に出力し、字幕データ31を字幕データ解析部12に出力する。MPEG2エンコード部11は、字幕放送デコーダ4から供給される映像/音声データ32に基づいてMPEG2データ34を出力する。
Referring to FIG. 2,
字幕データ解析部12は、字幕放送デコーダ4から供給される字幕データ31に基づいて初期チャプタ情報テーブル33を出力する。初期チャプタ情報テーブル33とMPEG2データ34はチャプタ情報テーブル補正部13に供給される。チャプタ情報テーブル補正部13は、各々のデータに基づいてチャプタ情報テーブル35を出力し、サムネイル画像作成部17とナビゲーションデータ作成部18とに供給する。
The caption
サムネイル画像作成部17は、MPEG2エンコード部11から供給されるMPEG2データ34とチャプタ情報テーブル補正部13から供給されるチャプタ情報テーブル35に基づいてサムネイル画像データ40をメニュー画面作成部19に出力する。ナビゲーションデータ作成部18は、MPEG2エンコード部11から供給されるMPEG2データ34とチャプタ情報テーブル補正部13から供給されるチャプタ情報テーブル35とに基づいてナビゲーションデータ37をメニュー画面作成部19と書き込みデータ作成部20とに出力する。メニュー画面作成部19は、ナビゲーションデータ37とサムネイル画像データ40とに基づいて、メニュー画面データ38を書き込みデータ作成部20に出力する。書き込みデータ作成部20は、MPEG2データ34と、ナビゲーションデータ37とメニュー画面データ38とに基づいて、チャプタ付書き込み用映像音声データ39を生成する。
The thumbnail
以下に、図面を参照して、字幕データ解析12の動作について説明を行う。図3は、本実施の形態における字幕データ解析部12の動作を例示するフローチャートである。本実施の形態において、図3に示されている動作は、DVDディスクに書き込むために番組録画が行われることで開始するものとする。図3のステップS101において、字幕データ解析部12は、字幕放送デコーダ4から出力される字幕データ31を受け取る。字幕データ解析部12は、受け取った字幕データ31に応答して、初期チャプタ情報テーブル33の生成を開始する。
The operation of
ステップS102において、字幕データ解析部12は、初期チャプタ情報テーブルの生成開始に応答して大容量記憶装置15のキーワードリスト格納部21を参照する。字幕データ解析部12は、その参照によって得られたキーワードリストの読み込みを行う。なお、予めキーワードリスト格納部21に格納されるキーワードリストは、ユーザのキーボード入力や、EPG情報に基づいて選択された文字列をキーワードとして設定するなどの方法によって生成される。字幕データ解析部12は、受信した字幕データからキーワードに対応する字幕が出現する時刻を特定し、そのキーワードと出現時刻とを関連付けて一時的に保持する。
In step S102, the caption
ステップS103において、字幕データ解析部12は、時間経過に対応して字幕データを解析する。字幕データ解析部12は、その解析に基づいて、予め設定されたキーワードが字幕データに出現すると、そのキーワードと出現時刻とを関連付けて初期チャプタ情報テーブルを生成する。字幕データ解析部12は、初期チャプタ情報テーブルの生成過程で、以前に出現したキーワードが再度出現しているかどうかの判断を行う。その判断の結果、キーワードが既出であった場合、処理はステップS104に進む。以前に出現したキーワードが出現していない場合、処理はステップS110に進む。
In step S103, the caption
ステップS104において、字幕データ解析部12は、既出のキーワードの出現時刻を特定する。字幕データ解析部12は、特定した時刻に基づいて、前回そのキーワードが字幕として出現した時刻と今回出現した時刻との時間間隔(時間差)を求める。字幕データ解析部12は、その求めた時間間隔が所定の時間(以下、チャプタ未作成時間T1と呼ぶ)を超えているかどうかの判断を行い、超えている場合は、処理はステップS105に進む。その求めた時間差がチャプタ未作成時間T1を超えていない場合は、そのキーワードが出現した時刻をチャプタとして採用しないまま、処理はステップS110に進む。例えば、チャプタ未作成時間T1として、5秒間という時間が設定されているものとする。予め設定されたキーワードが、”00:10:00”に字幕表示されたとして、その出現時刻から5秒以内(00:10:00〜00:10:05までの間)に再度字幕として表示されたとしても、字幕データ解析部12は、その時刻をチャプタ候補時刻として特定しない。
In step S <b> 104, the caption
ステップS105において、字幕データ解析部12は、キーワードが出現した時刻をチャプタ候補時刻とし、そのチャプタ候補時刻と前回キーワードが出現した時刻との時間差を時間間隔情報とし、チャプタ候補時刻と時間間隔情報とを新たなチャプタ番号に関連付けて初期チャプタ情報テーブルを更新する。更新が完了すると、処理はステップS106に進む。
In step S105, the caption
ステップS106において、字幕データ解析部12は、初期チャプタ情報テーブルが更新されたことに応答して、最大チャプタ情報格納部22を参照し、最大チャプタ数情報を読み込む。
In step S106, in response to the update of the initial chapter information table, the caption
ステップS107において、字幕データ解析部12は、その現時点における初期チャプタ情報テーブルに保持されている総チャプタ数を特定する。字幕データ解析部12は、その総チャプタ数と読み込んだ最大チャプタ数との比較を行う。その比較の結果、総チャプタ数が最大チャプタ数を超えていない場合、字幕データ解析部12は、初期チャプタ情報テーブルに新たなチャプタ情報を追加する(ステップS108)。その比較の結果、総チャプタ数が最大チャプタ数を超えている場合には、字幕データ解析部12は、同一キーワード出現間隔が、一番短いチャプタを削除して、初期チャプタ情報テーブルを更新する(ステップS109)。
In step S107, the caption
ステップS110において、字幕データ解析部12は、字幕データの解析が全て完了したかどうかの判断を行う。その判断の結果、解析が完了していない場合には、処理はステップS103戻る。解析が完了した場合、処理はステップS111に進む。ステップS111において、字幕データ解析部12は、生成してきた初期チャプタ情報テーブルを出力する。
In step S110, the caption
これによって、
以下に、初期チャプタ情報テーブルの具体例を示して、字幕データ解析部12の動作および初期チャプタ情報テーブルの構成に関して説明を行う。以下の実施の形態の説明においては、設定されている最大チャプタ数が”8”であるものする。図4は、初期チャプタ情報テーブル33の構成を例示するテーブルである。図4を参照すると、初期チャプタ情報テーブル33は、チャプタ番号41と、キーワード42と、チャプタ候補時刻43と、同一キーワード間隔44とが関連付けられて構成されている。図4に示されている初期チャプタ情報テーブル33は、1番目から8番目までのチャプタ番号41がすでに使用されている場合を例示している。
by this,
Hereinafter, a specific example of the initial chapter information table will be described, and the operation of the caption
チャプタ番号41は、チャプタ候補時刻の特定が行われるごとに付与される番号である。キーワード42は、字幕データ解析部12がキーワードリストに基づいて特定した文字列である。チャプタ候補時刻43は、そのキーワード42が字幕データに基づいて字幕表示される時刻である。同一キーワード間隔44は、以前キーワード字幕表示された時刻とそのキーワードが再度字幕表示される時刻との時間差である。
The
図5は、字幕データを解析した結果、新たにキーワードが出現したときの更新用データ45の構成を例示するテーブルである。図5を参照すると、字幕データの解析開始時刻から27分45秒の時点で”プロ野球”というキーワードが出現したことを示している。このとき字幕データ解析部12は、初期チャプタ情報テーブル33を参照して、前回”プロ野球”というキーワードが出現した時刻(00:12:20)と、今回の出現時刻(00:27:45)とから、同一キーワード間隔44を算出する。
FIG. 5 is a table illustrating the configuration of the
このとき、初期チャプタ情報テーブル33の最大チャプタ数と同数のチャプタ情報を保持しているので、字幕データ解析部12は、図3のフローチャートにおけるステップS109の処理を実行する。字幕データ解析部12は、初期チャプタ情報テーブル33を参照して、同一キーワードの出現間隔が、一番短いチャプタを特定する。図4を参照すると、このときのチャプタ番号が”3”の”小泉首相”というキーワードは、前回出現した時刻から15秒後に出現していることが示されている。字幕データ解析部12は、チャプタ番号3に関連付けられているチャプタ情報を削除し、更新用データ45に示されている情報を新たなチャプタ情報として追加するとともに、初期チャプタ情報テーブル33を更新する。
At this time, since the same number of chapter information as the maximum number of chapters in the initial chapter information table 33 is held, the caption
図6は、更新された初期チャプタ情報テーブル33aの構成を例示するテーブルである。図6を参照すると、更新されたチャプタ情報テーブル33aは、更新前のチャプタ情報テーブル40のチャプタ番号3に関連付けられていた情報が削除されている。また、その策上に伴って各チャプタ情報が繰り上げられている。さらに、図6に示されているように、その削除によって、チャプタ番号2の”小泉首相”というキーワードの次に”小泉首相”というキーワードが出現する時刻が、15分50秒となる。そのため、字幕データ解析部12は初期チャプタ情報テーブル33aチャプタ番号5の同一キーワード間隔44を更新する。
FIG. 6 is a table illustrating the configuration of the updated initial chapter information table 33a. Referring to FIG. 6, in the updated chapter information table 33a, information associated with
これによって、そのキーワードが字幕として出現する間隔に対応して、再生開始箇所として適切な箇所を特定することが可能となる。 This makes it possible to identify an appropriate location as a playback start location corresponding to the interval at which the keyword appears as a caption.
図7は、チャプタ情報テーブル補正部13がチャプタを付与する時刻を補正する動作を例示するフローチャートである。その補正は字幕データ解析部12から供給される初期チャプタ情報テーブル33に基づいて実行される。図7のステップS201において、チャプタ情報テーブル補正部13は、字幕データ解析部12から供給される初期チャプタ情報テーブルを読み込む。ステップS202において、チャプタ情報テーブル補正部13は、MPEG2エンコード部11から出力されるMPEG2データ34を読み込む。
FIG. 7 is a flowchart illustrating an operation in which the chapter information
ステップS203において、チャプタ情報テーブル補正部13の音声認識部13−1は、初期チャプタ情報テーブル33(または、初期チャプタ情報テーブル33a)に示されているチャプタ候補時刻43に基づいて、音声認識を開始する時刻(以下、音声認識開始時刻と呼ぶ。)を特定する。音声認識開始時刻は、チャプタ候補時刻から所定の時間(以下、認識時間T2と呼ぶ)だけ早い時刻が設定される。音声認識部13−1は、音声認識開始時刻から音声認識を開始し、一定の時間間隔(音声認識実行時間46)が経過するまでにキーワードに対応する音声の認識を実行する。
In step S203, the speech recognition unit 13-1 of the chapter information
リアルタイム字幕放送の場合には、音声が出力されてからその音声に対応する字幕が表示されるまで、5〜10秒間程度のタイムラグが発生してしまうことがある。そこで、認識時間T2として、例えば10秒間を設定しておくと、チャプタ候補時刻から音声認識を実行するよりも、キーワードに対応する音声を認識することができる可能性(音声認識率)が高くなる。また、音声認識を終了する時刻を、チャプタ候補時刻から所定の時間だけ遅らせることで、より音声認識率を高めることが可能となる。 In the case of real-time caption broadcasting, there may be a time lag of about 5 to 10 seconds from when the sound is output until the caption corresponding to the sound is displayed. Therefore, if the recognition time T2 is set to 10 seconds, for example, the possibility that the speech corresponding to the keyword can be recognized (speech recognition rate) becomes higher than when speech recognition is executed from the chapter candidate time. . In addition, it is possible to further increase the voice recognition rate by delaying the voice recognition end time by a predetermined time from the chapter candidate time.
ステップS204において、音声認識部13−1は、キーワードに対応する音声データを認識することができたかどうかの判断を実行する。その判断の結果、キーワードに対応する音声データの認識ができた場合、処理はステップS205に進む。キーワードに対応する音声データの認識ができなかった場合、処理はステップS206に進む。 In step S204, the voice recognition unit 13-1 determines whether voice data corresponding to the keyword has been recognized. As a result of the determination, if the voice data corresponding to the keyword can be recognized, the process proceeds to step S205. If the voice data corresponding to the keyword cannot be recognized, the process proceeds to step S206.
ステップS205において、チャプタ情報テーブル補正部13は、音声認識部13−1による音声認識に基づいて、キーワードに対応する音声データが出現する時刻(キーワード出現時刻47)を特定する。ステップS207において、チャプタ情報テーブル補正部13は、キーワード出現時刻47と補正時間T3とに対応してチャプタ時刻を補正する。
In step S205, the chapter information
ステップS206において、チャプタ情報テーブル補正部13は音声認識部13−1による音声認識ができなかった場合、ステップS203で設定される音声認識開始時刻に対応してチャプタ時刻を補正する。ステップS208において、チャプタ情報テーブル補正部13は補正が完了したときに、チャプタ情報テーブルを更新する。
In step S206, the chapter information
ここで、上述のフローチャートの動作を補正用チャプタ情報テーブルの具体例を示して、チャプタ情報テーブル補正部13の動作およびチャプタ情報テーブルの構成に関して説明を行う。図8は、音声認識実行時間46を含む補正用チャプタ情報テーブル50の構成を例示するテーブルである。補正用チャプタ情報テーブル50は初期チャプタ情報テーブル33に基づいて生成される。以下の説明において第1補正時間T2が10秒であり、補正時間T3が1秒である場合を例示する。
Here, the operation of the above-described flowchart will be described with reference to a specific example of the chapter information table for correction, and the operation of the chapter information
図8を参照すると、補正用チャプタ情報テーブル50は、キーワード42とチャプタ候補時刻43とに関連付けられた音声認識実行時間46とで構成されている。図8に示されているように。補正用チャプタ情報テーブル50は、各チャプタ候補時刻43より第1補正時間T2(10秒間)早い時刻を音声認識開始時刻として特定している。また、各チャプタ候補時刻43より5秒遅い時刻を音声認識終了時刻として特定している。音声認識部13−1は、補正用チャプタ情報テーブル50の音声認識実行時間46に示されている時間の音声認識を実行し、キーワードに対応する音声データが出現する時刻を特定する。
Referring to FIG. 8, the correction chapter information table 50 includes a
図9は、音声認識部13−1による音声認識の結果(キーワード出現時刻47)と認識対象のキーワードとを関連付けて保持する補正用チャプタ情報テーブル51の構成を例示するテーブルである。図9を参照すると、チャプタ情報テーブル補正部13は、音声認識部13−1による音声認識の結果をキーワード出現時刻47として各キーワード42に関連付けて保持している。
FIG. 9 is a table exemplifying a configuration of the correction chapter information table 51 that holds the result of speech recognition (keyword appearance time 47) by the speech recognition unit 13-1 and the keyword to be recognized in association with each other. Referring to FIG. 9, the chapter information
図10は、キーワード出現時刻47から第2補正時刻T3を加減して得られたチャプタ設定時刻48と、そのチャプタの特定に用いられるキーワードとを関連付けて保持しているチャプタ情報テーブル35の構成を例示するテーブルである。図10を参照すると、チャプタ情報テーブル35は、音声認識部13−1が実行した音声認識によって得られたキーワード出現時刻47をさらに補正したチャプタ設定時刻48と、キーワード42とを関連付けて保持している。
FIG. 10 shows a configuration of a chapter information table 35 that holds a
上述してきたように、チャプタ情報テーブル補正部13は、字幕データに基づいて特定されるチャプタ候補時刻と、MPEG2データの音声が出力される時刻との時間差に対応して補正している。補正することによって得られたチャプタ設定時刻に対応してチャプタを付与させているため、任意のチャプタから記録画像を再生させたときに、音声が途中から再生されてしまうような不具合を低減させることが可能になる。
As described above, the chapter information
図11は、チャプタ情報テーブル補正部13が実行する補正における、他の実施の形態の動作を例示するフローチャートである。図11に示されているステップS201とステップS202は、図7で説明した動作と同様であるので、詳細な説明は省略する。
FIG. 11 is a flowchart illustrating the operation of another embodiment in the correction executed by the chapter information
図11のステップS301において、チャプタ情報テーブル補正部13は、MPEG2エンコード部11から供給されるMPEG2データ34に基づいて、そのMPEG2データ34が生放送番組を録画した字幕データ31から生成されたかどうかの判断を実行する。その判断の結果、MPEG2データ34が、生放送番組を録画した字幕データ31に基づいて生成されている場合、処理はステップS302に進み、録画番組に対応して生成されたMPEG2データ34の場合、処理はステップS303に進む。ここで、チャプタ情報テーブル補正部13は、MPEG2データ34の受信に応答して、EPG情報から番組のジャンルを取得し、そのジャンルに基づいて上記の判断を実行する。例えば、そのジャンルがニュースやスポーツの場合、処理はステップS302に進むこととなる。
In step S301 in FIG. 11, the chapter information
ステップS302において、チャプタ情報テーブル補正部13は、リアルタイム字幕放送に対応した補正を実行する。また、ステップS303において、チャプタ情報テーブル補正部13は、録画放送用の補正を実行する。
In step S302, the chapter information
具体的には、例えばチャプタ情報テーブル補正部13は、リアルタイム字幕放送に対応した補正を実行する場合、上述した認識時間T2に対応して、チャプタ設定時刻を特定し、録画放送用の補正を実行する場合には、補正時間T3に対応してチャプタ設定時刻を特定する。
Specifically, for example, when performing the correction corresponding to the real-time caption broadcast, the chapter information
これによって、番組のジャンルに対応してチャプタを設定する時刻を特定することが可能になる。 This makes it possible to specify the time for setting a chapter corresponding to the genre of the program.
なお、上述してきた実施の形態において、各装置の構成は本発明における構成を限定するものではない。例えば、記録媒体はDVDディスクに限定されるものではなく、受信した字幕放送をHDDレコーダを使用してハードディスクに記録させる構成であってもよい。同様に、上述の実施の形態において、DVDデータ生成装置1がパーソナルコンピュータである場合を例示して説明を行ってきたが、これは、本発明のDVDデータ生成装置1の構成を限定するものではない。例えば、DVDデータ生成装置1として専用の装置を構成して本発明を実現することも可能である。
In the embodiment described above, the configuration of each device does not limit the configuration in the present invention. For example, the recording medium is not limited to a DVD disk, and the received subtitle broadcast may be recorded on a hard disk using an HDD recorder. Similarly, in the above-described embodiment, the case where the DVD
また、上述の実施の形態において、各情報処理部がコンピュータプログラム(ソフトウェア)である場合を前提に説明を行ってきたが、例えば、任意のプログラムに対応する電子回路(ハードウェア)を構成し、その電子回路を動作させることで、本実施の形態の動作を実現させることが可能である。 In the above-described embodiment, the description has been made on the assumption that each information processing unit is a computer program (software). For example, an electronic circuit (hardware) corresponding to an arbitrary program is configured, The operation of this embodiment can be realized by operating the electronic circuit.
なお、上述の実施の形態において、その動作に矛盾が生じない範囲において、組み合わせて実行することも可能である。 In the above-described embodiment, the operations can be combined and executed within a range where there is no contradiction in the operation.
1…DVDデータ生成装置
2…放送受信装置
3…アンテナ
4…字幕放送デコーダ
5…入力装置
6…表示装置
7…DVDデータ書き込み装置
8…送受信部
9…演算処理部
10…主記憶部
11…MPEG2エンコード部
12…字幕データ解析部
13…チャプタ情報テーブル補正部
14…DVDデータ生成部
15…大容量記憶装置
16…バス
17…サムネイル画像作成部
18…ナビゲーションデータ作成部
19…メニュー画面作成部
20…書き込みデータ作成部
21…キーワードリスト格納部
22…最大チャプタ情報格納部
23…MPEG2データ格納部
24…DVDデータ格納部
25…チャプタ情報テーブル格納部
26…補正用データ格納部
30…受信放送データ
31…字幕データ
32…映像/音声データ
33、33a…初期チャプタ情報テーブル
34…MPEG2データ
35…チャプタ情報テーブル
37…ナビゲーションデータ
38…メニュー画面データ
39…チャプタ付映像音声記録媒体
40…サムネイル画像データ
41…チャプタ番号
42…キーワード
43…チャプタ候補時刻
44…同一キーワード間隔
45…更新用データ
46…音声認識実行時間
47…キーワード出現時刻
48…チャプタ設定時刻
50、51、補正用チャプタ情報テーブル
52…字幕放送
T1…チャプタ未作成時間
T2…認識時間
T3…補正時間
DESCRIPTION OF
Claims (18)
前記字幕データと前記映像音声データとに基づいてチャプタ付映像音声記録媒体を生成する書き込み用データ生成装置と
を具備し、
前記書き込み用データ生成装置は、
予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブルを生成する字幕データ解析部と、
前記初期チャプタ情報テーブルに基づいて前記チャプタ候補時刻を補正して、チャプタ情報テーブルを生成するチャプタ情報テーブル補正部と、
前記チャプタ付映像音声記録媒体を生成する書き込み用画像生成部と
を有し、
前記字幕データ解析部は、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止し、
前記チャプタ情報テーブル補正部は、
前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブルを生成し、
前記書き込み用画像生成部は、
前記チャプタ情報テーブルに示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データに前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体を生成する
番組録画装置。 In response to a television signal with caption data supplied from a receiving device that receives caption broadcasting, a decoder device that extracts caption data and video / audio data from the television signal with caption data, and the video / audio data are: Including the video and audio of the subtitle broadcast,
A writing data generating device for generating a chaptered video / audio recording medium based on the caption data and the video / audio data,
The write data generation device includes:
A caption data analysis unit that identifies a time at which a preset keyword is displayed as a caption as a chapter candidate time, and generates an initial chapter information table by associating the keyword with the chapter candidate time;
A chapter information table correction unit that corrects the chapter candidate time based on the initial chapter information table and generates a chapter information table;
An image generation unit for writing that generates the chaptered video and audio recording medium,
The caption data analysis unit
When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time,
The chapter information table correction unit
Identifying the chapter setting time based on the time difference between the chapter candidate time and the time at which the sound corresponding to the keyword is output, generating the chapter information table by associating the chapter setting time with the keyword,
The writing image generation unit
A program recording apparatus that generates the chapter-added video / audio recording medium by adding the chapter information to video / audio data for writing based on the chapter setting time indicated in the chapter information table.
前記字幕データ解析部は、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブルを構成し、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定し、
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成し、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブルに追加する
番組録画装置。 The program recording apparatus according to claim 1,
The caption data analysis unit
Generate a record associating the keyword and the chapter candidate time to configure the initial chapter information table,
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the time when the keyword newly appears is specified as a new chapter candidate time,
Generating a new record by associating a keyword appearance interval, which is a time difference between the chapter candidate time and the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of the records exceeds a predetermined number, the program recording device that deletes the record with a short appearance interval and adds a new record to the initial chapter information table.
前記チャプタ情報補正部は、音声認識部を含み、
前記音声認識部は、
前記書き込み用映像音声データに含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定し、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。 The program recording apparatus according to claim 2, wherein
The chapter information correction unit includes a voice recognition unit,
The voice recognition unit
Performing voice recognition of the voice data included in the video / audio data for writing to identify the time when the keyword is output as voice, as the keyword voice output time;
A program recording apparatus that corrects the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time to identify the chapter setting time.
前記音声認識部は、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行し、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定し、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。 The program recording apparatus according to claim 3, wherein
The voice recognition unit
Perform speech recognition in a predetermined time range with the chapter candidate time as a reference time,
When speech corresponding to the keyword is recognized by speech recognition performed in the time range, the recognized time is specified as the keyword speech output time,
When the voice corresponding to the keyword is not recognized by the voice recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the time when the keyword voice recognition is started and the chapter candidate time. A program recording device that identifies the chapter setting time.
前記音声認識部は、予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行し、
前記チャプタ情報テーブル補正部は、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。 The program recording apparatus according to claim 4, wherein
The voice recognition unit identifies a voice recognition start time for starting voice recognition based on a predetermined recognition time, executes voice recognition in a predetermined time range from the specified voice recognition start time,
The chapter information table correction unit
A program recording device that specifies the chapter setting time by correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
さらに、前記映像音声データを処理して前記書き込み用映像音声データを生成する画像処理部を含み、
前記画像処理部は、前記映像音声データに対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データとを対応付けて前記書き込み用映像音声データを生成し、
前記チャプタ情報テーブル補正部は、
前記書き込み用映像音声データに含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。 In the program recording device according to any one of claims 1 to 5,
And an image processing unit that processes the video / audio data to generate the video / audio data for writing,
The image processing unit generates program type information indicating whether a subtitle broadcast corresponding to the video / audio data is a live broadcast program or a recorded broadcast program, and associates the program type information with the video / audio data. Generating the video / audio data for writing;
The chapter information table correction unit
A program recording device that corrects the chapter candidate time based on the program type information included in the video / audio data for writing and identifies the chapter setting time.
(b)予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブルを生成するステップと、
(c)前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
(d)前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブルを生成するステップと、
(e)前記字幕データと前記映像音声データと前記チャプタ情報テーブルに示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データに前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体を生成するステップ
を具備する番組録画方法。 (A) extracting subtitle data and video / audio data from the television signal with subtitle data in response to the television signal with subtitle data; and the video / audio data includes video data and audio data of the subtitle broadcast. Including
(B) identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and generating an initial chapter information table by associating the keyword with the chapter candidate time;
(C) When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
(D) A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter information table is generated by associating the chapter setting time with the keyword. Steps,
(E) Based on the caption data, the video / audio data, and the chapter setting time indicated in the chapter information table, the chapter information is added to the video / audio data for writing to generate the chapter-added video / audio recording medium. A program recording method comprising the steps of:
前記(b)ステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブルを構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブルに追加するステップ
を具備する番組録画方法。 The program recording method according to claim 7,
The step (b)
Generating a record associating the keyword with the chapter candidate time and configuring the initial chapter information table;
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of the records exceeds a predetermined number, a program recording method comprising: deleting a record with a short appearance interval and adding a new record to the initial chapter information table.
前記(d)ステップは、
前記書き込み用映像音声データに含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。 The program recording apparatus according to claim 8, wherein
The step (d) includes:
Performing voice recognition of audio data included in the video / audio data for writing and specifying a time when the keyword is output as audio as a keyword audio output time;
A program recording method comprising: correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time.
前記(d)ステップは、さらに、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。 The program recording method according to claim 9, wherein
The step (d) further includes:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. A program recording method comprising the steps of:
前記(d)ステップは、さらに、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。 The program recording method according to claim 9, wherein
The step (d) further includes:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
A program recording method, comprising: correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
さらに、
(f)前記映像音声データに対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データとを対応付けて前記書き込み用映像音声データを生成するステップと、
(g)前記書き込み用映像音声データに含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。 The program recording method according to any one of claims 7 to 11,
further,
(F) generating program type information indicating whether the subtitle broadcast corresponding to the video / audio data is a live broadcast program or a recorded broadcast program, and associating the program type information with the video / audio data for the writing Generating video and audio data;
(G) A program recording method comprising: correcting the chapter candidate time based on the program type information included in the video / audio data for writing.
字幕放送を受信する受信手段から供給される字幕データ付テレビジョン信号に応答して、前記字幕データ付テレビジョン信号から字幕データと映像音声データとを抽出するデコーダ手段と、
前記字幕データと前記映像音声データとに基づいてチャプタ付映像音声記録媒体を生成する書き込み用映像音声データ生成手段
として機能させるプログラムであって、
前記書き込み用映像音声データ生成手段に、
(a)前記デコーダ手段から供給される前記字幕データと前記映像音声データとを受け取るステップと、前記映像音声データは前記字幕放送の映像データと音声データとを含み、
(b)予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブルを生成するステップと、
(c)前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
(d)前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブルを生成するステップと、
(e)前記字幕データと前記映像音声データと前記チャプタ情報テーブルに示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データに前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体を生成するステップ
を具備する方法を実行させる
番組録画プログラム。 Decoder means for extracting caption data and video / audio data from the television signal with caption data in response to the television signal with caption data supplied from a receiving means for receiving caption broadcast on a computer;
A program that functions as a writing video / audio data generating means for generating a chaptered video / audio recording medium based on the caption data and the video / audio data,
In the video / audio data generating means for writing,
(A) receiving the subtitle data and the video / audio data supplied from the decoder means; the video / audio data includes video data and audio data of the subtitle broadcast;
(B) identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and generating an initial chapter information table by associating the keyword with the chapter candidate time;
(C) When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
(D) A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter information table is generated by associating the chapter setting time with the keyword. Steps,
(E) Based on the caption data, the video / audio data, and the chapter setting time indicated in the chapter information table, the chapter information is added to the video / audio data for writing to generate the chapter-added video / audio recording medium. A program recording program for executing a method comprising the steps.
前記(b)ステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブルを構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブルに追加するステップ
を具備する
番組録画プログラム。 The program recording program according to claim 13,
The step (b)
Generating a record associating the keyword with the chapter candidate time and configuring the initial chapter information table;
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of records exceeds a predetermined number, a program recording program comprising: deleting a record with a short appearance interval and adding a new record to the initial chapter information table.
前記(d)ステップは、
前記書き込み用映像音声データに含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する
番組録画プログラム。 In the program recording program according to claim 14,
The step (d) includes:
Performing voice recognition of audio data included in the video / audio data for writing and specifying a time when the keyword is output as audio as a keyword audio output time;
A program recording program comprising: correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time.
前記(d)ステップは、さらに、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する
番組録画プログラム。 In the program recording program according to claim 15,
The step (d) further includes:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. A program recording program comprising the steps.
前記(d)ステップは、さらに、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップ
を具備する
番組録画プログラム。 In the program recording program according to claim 15,
The step (d) further includes:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
A program recording program comprising: correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
前記コンピュータを、さらに、
前記映像音声データを処理して前記書き込み用映像音声データを生成する画像処理手段として機能させ、
前記書き込み用映像音声データ生成手段に、さらに、
(f)前記映像音声データに対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データとを対応付けて前記書き込み用映像音声データを生成するステップと、
(g)前記書き込み用映像音声データに含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する方法を実行させる
番組録画プログラム。 The program recording program according to any one of claims 13 to 17,
Said computer further
Function as image processing means for processing the video / audio data to generate the video / audio data for writing,
In the video / audio data generating means for writing,
(F) generating program type information indicating whether the subtitle broadcast corresponding to the video / audio data is a live broadcast program or a recorded broadcast program, and associating the program type information with the video / audio data for the writing Generating video and audio data;
(G) A program recording program that executes a method comprising: correcting the chapter candidate time based on the program type information included in the video / audio data for writing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005092578A JP4019085B2 (en) | 2005-03-28 | 2005-03-28 | Program recording apparatus, program recording method, and program recording program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005092578A JP4019085B2 (en) | 2005-03-28 | 2005-03-28 | Program recording apparatus, program recording method, and program recording program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006279290A true JP2006279290A (en) | 2006-10-12 |
JP4019085B2 JP4019085B2 (en) | 2007-12-05 |
Family
ID=37213606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005092578A Expired - Fee Related JP4019085B2 (en) | 2005-03-28 | 2005-03-28 | Program recording apparatus, program recording method, and program recording program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4019085B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008172421A (en) * | 2007-01-10 | 2008-07-24 | Sony Corp | Recorder and method, reproducing apparatus and method, and program |
JP2009118206A (en) * | 2007-11-07 | 2009-05-28 | Hitachi Ltd | Image recording/reproducing apparatus |
JP2009159483A (en) * | 2007-12-27 | 2009-07-16 | Kyocera Corp | Broadcast receiver |
JP2010109852A (en) * | 2008-10-31 | 2010-05-13 | Hitachi Ltd | Video indexing method, video recording and playback device, and video playback device |
CN101256822B (en) * | 2007-03-02 | 2012-05-02 | 索尼株式会社 | Information processing apparatus, information processing method |
WO2014002728A1 (en) * | 2012-06-27 | 2014-01-03 | シャープ株式会社 | Recording device, television receiver, and recording method |
JP2014123898A (en) * | 2012-12-21 | 2014-07-03 | Toshiba Corp | Electronic apparatus and reproduction control method |
US8965184B2 (en) | 2007-07-19 | 2015-02-24 | Sony Corporation | Video-recording/reproducing apparatus and video-recording/reproducing method |
JP2015053589A (en) * | 2013-09-06 | 2015-03-19 | 株式会社東芝 | Electronic apparatus, electronic apparatus control method, and scene control program |
JP2017005442A (en) * | 2015-06-09 | 2017-01-05 | 日本放送協会 | Content generation device and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002027410A (en) * | 2000-07-13 | 2002-01-25 | Sony Corp | Equipment and method for recording and reproducing image signal, and recording medium |
JP2002199348A (en) * | 2000-12-27 | 2002-07-12 | Matsushita Electric Ind Co Ltd | Information reception recording and reproducing device |
JP2004080476A (en) * | 2002-08-20 | 2004-03-11 | Sanyo Electric Co Ltd | Digital video reproducing device |
JP2004207821A (en) * | 2002-12-24 | 2004-07-22 | Nippon Hoso Kyokai <Nhk> | Subtitle broadcast receiver, subtitle broadcast receiving method, and subtitle broadcast receiving program |
-
2005
- 2005-03-28 JP JP2005092578A patent/JP4019085B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002027410A (en) * | 2000-07-13 | 2002-01-25 | Sony Corp | Equipment and method for recording and reproducing image signal, and recording medium |
JP2002199348A (en) * | 2000-12-27 | 2002-07-12 | Matsushita Electric Ind Co Ltd | Information reception recording and reproducing device |
JP2004080476A (en) * | 2002-08-20 | 2004-03-11 | Sanyo Electric Co Ltd | Digital video reproducing device |
JP2004207821A (en) * | 2002-12-24 | 2004-07-22 | Nippon Hoso Kyokai <Nhk> | Subtitle broadcast receiver, subtitle broadcast receiving method, and subtitle broadcast receiving program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008172421A (en) * | 2007-01-10 | 2008-07-24 | Sony Corp | Recorder and method, reproducing apparatus and method, and program |
CN101256822B (en) * | 2007-03-02 | 2012-05-02 | 索尼株式会社 | Information processing apparatus, information processing method |
US8965184B2 (en) | 2007-07-19 | 2015-02-24 | Sony Corporation | Video-recording/reproducing apparatus and video-recording/reproducing method |
JP2009118206A (en) * | 2007-11-07 | 2009-05-28 | Hitachi Ltd | Image recording/reproducing apparatus |
JP2009159483A (en) * | 2007-12-27 | 2009-07-16 | Kyocera Corp | Broadcast receiver |
JP2010109852A (en) * | 2008-10-31 | 2010-05-13 | Hitachi Ltd | Video indexing method, video recording and playback device, and video playback device |
WO2014002728A1 (en) * | 2012-06-27 | 2014-01-03 | シャープ株式会社 | Recording device, television receiver, and recording method |
JP2014030180A (en) * | 2012-06-27 | 2014-02-13 | Sharp Corp | Video recording device, television receiver, and video recording method |
JP2014123898A (en) * | 2012-12-21 | 2014-07-03 | Toshiba Corp | Electronic apparatus and reproduction control method |
JP2015053589A (en) * | 2013-09-06 | 2015-03-19 | 株式会社東芝 | Electronic apparatus, electronic apparatus control method, and scene control program |
JP2017005442A (en) * | 2015-06-09 | 2017-01-05 | 日本放送協会 | Content generation device and program |
Also Published As
Publication number | Publication date |
---|---|
JP4019085B2 (en) | 2007-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4019085B2 (en) | Program recording apparatus, program recording method, and program recording program | |
KR101111537B1 (en) | Apparatus and method for supporting viewing and listening | |
JP5433143B2 (en) | Digital broadcast media recording apparatus and recording method | |
JP2006279241A (en) | Program recording device | |
JP2008124574A (en) | Preference extracting apparatus, preference extracting method and preference extracting program | |
JPWO2006033329A1 (en) | Video display device, video display method, and video display program | |
JP2009004872A (en) | One-segment broadcast receiver, one-segment broadcast receiving method and medium recording one-segment broadcast receiving program | |
JP2008193585A (en) | Broadcast program recording/reproducing device and broadcast program recording/reproducing method | |
JP2004357293A (en) | Process of navigation for selection of documents associated with identifiers, and apparatus for implementing the process | |
JP6266271B2 (en) | Electronic device, electronic device control method, and computer program | |
JP2007267259A (en) | Image processing apparatus and file reproducing method | |
US20070043776A1 (en) | Controller to be connected to IEEE 1394 serial bus | |
KR101233167B1 (en) | Apparatus and method for display recording | |
KR100445006B1 (en) | Method and apparatus for managing a recording broadcasting program list | |
JP6775454B2 (en) | Recording reservation device, recording playback device and recording reservation method | |
KR20100030474A (en) | A method for providing service information and the apparatus thereof | |
JP6575820B2 (en) | Recording / playback device | |
JP2006332765A (en) | Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium | |
JP6290046B2 (en) | Video apparatus and video apparatus control method | |
JP2014207619A (en) | Video recording and reproducing device and control method of video recording and reproducing device | |
JP2008035218A (en) | Recorder/reproducer and automatic videotape recording method | |
JP2011248202A (en) | Recording and playback apparatus | |
JP4456993B2 (en) | Data processing apparatus, method thereof, program thereof, and recording medium | |
WO2020208695A1 (en) | Video recording/reproducing device and video recording/reproducing method | |
JP2006013787A (en) | Contents recording apparatus, method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4019085 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110928 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130928 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |