JP2006279290A - Program recording apparatus, program recording method, and program recording program - Google Patents

Program recording apparatus, program recording method, and program recording program Download PDF

Info

Publication number
JP2006279290A
JP2006279290A JP2005092578A JP2005092578A JP2006279290A JP 2006279290 A JP2006279290 A JP 2006279290A JP 2005092578 A JP2005092578 A JP 2005092578A JP 2005092578 A JP2005092578 A JP 2005092578A JP 2006279290 A JP2006279290 A JP 2006279290A
Authority
JP
Japan
Prior art keywords
time
chapter
keyword
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005092578A
Other languages
Japanese (ja)
Other versions
JP4019085B2 (en
Inventor
Tetsuya Ajisaka
哲矢 鯵坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2005092578A priority Critical patent/JP4019085B2/en
Publication of JP2006279290A publication Critical patent/JP2006279290A/en
Application granted granted Critical
Publication of JP4019085B2 publication Critical patent/JP4019085B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of particularizing a proper position as a reproduction start position corresponding to an interval of keywords appearing as caption data in the case that a chapter is provided to writing data by particularizing a time when the keyword appears from the caption data. <P>SOLUTION: A program recording apparatus is configured to include: a decoder for extracting caption data and video audio data from a caption data attached television signal in response to the caption data attached television signal supplied from a receiver for receiving caption broadcast; and a writing data generating apparatus for generating a chapter attached video audio recording medium on the basis of the caption data and the video audio data. Then the writing data generating apparatus is configured to include: a caption data analysis section for particularizing a chapter object time to generate an initial chapter information table; a chapter information table correction display section; and a writing image generating section for generating the chapter attached video audio recording medium. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は組録画装置、番組録画方法および番組録画プログラムに関し、特に字幕放送を受信して、その字幕放送を記録する際にチャプタを付加して記録する組録画装置、番組録画方法および番組録画プログラムに関する。   The present invention relates to a group recording apparatus, a program recording method, and a program recording program, and more particularly, to a group recording apparatus, a program recording method, and a program recording program for receiving a caption broadcast and adding a chapter when recording the caption broadcast. About.

DVDレコーダやHDDレコーダに代表されるような、放送受信装置が受信した所定の番組をデジタルデータとして録画することが可能な番組録画装置が普及してきている。   2. Description of the Related Art Program recorders capable of recording a predetermined program received by a broadcast receiving apparatus as digital data, such as a DVD recorder or an HDD recorder, have become widespread.

一般的に、従来の番組録画装置は録画する番組に関する情報(例えば、ユーザが入力する番組の名称や録画時刻等。以下、番組情報と呼ぶ。)を記録媒体に記録しておき、再生時において、その番組情報を参照して録画されている番組をユーザに認識させる機能を搭載している。さらに、その番組情報を用いて頭出し(ユーザが選択した番組をその冒頭から再生すること)ができるものが存在する。録画された番組の冒頭以外の部分から再生を行う場合には、ユーザが画面に表示されている映像を参照しながら、早送りや巻き戻しを実行する必要がある。   In general, a conventional program recording apparatus records information on a program to be recorded (for example, a program name and recording time input by a user, hereinafter referred to as program information) on a recording medium, and at the time of reproduction. In addition, a function for allowing a user to recognize a recorded program by referring to the program information is installed. In addition, there is a program that can use the program information to cue (play a program selected by the user from the beginning). When playback is performed from a portion other than the beginning of the recorded program, it is necessary for the user to execute fast forward or rewind while referring to the video displayed on the screen.

画面を参照することなく、ユーザが所望する箇所から映像を再生させる技術として、所定の文字列(以下、キーワードと呼ぶ)を入力し、その入力された文字列から、記録媒体に記録された番組の再生開始箇所を特定する技術が知られている(例えば、特許文献1参照。)。   As a technique for reproducing a video from a location desired by a user without referring to a screen, a predetermined character string (hereinafter referred to as a keyword) is input, and a program recorded on the recording medium from the input character string. A technique for identifying the reproduction start location is known (for example, see Patent Document 1).

特許文献1(特開2000−287156号公報)に記載の技術は、MPEG2エンコード部が、チューナから入力されるテレビジョン信号に含まれるAVデータをMPEG2方式を用いて圧縮符号化し、記録部に出力している。またVBIデータ抽出部は、テレビジョン信号のVBIに含まれる付加情報を抽出して記録部に出力している。記録部5、MPGファイルとVBIファイルを対応付けてハードディスク7記録する。検索再生部は、ユーザが入力する文字列をキーワードとして、VBIファイルの中身を検索し、合致する台詞等に対応するMPGファイルを読み出して、その台詞の位置からデコードしてモニタに出力している。   In the technique described in Patent Document 1 (Japanese Patent Laid-Open No. 2000-287156), an MPEG2 encoding unit compresses and encodes AV data included in a television signal input from a tuner using the MPEG2 method, and outputs it to a recording unit is doing. The VBI data extraction unit extracts additional information included in the VBI of the television signal and outputs it to the recording unit. The recording unit 5 records the hard disk 7 in association with the MPG file and the VBI file. The search / playback unit searches the contents of the VBI file using the character string input by the user as a keyword, reads the MPG file corresponding to the matching line, etc., decodes it from the position of the line, and outputs it to the monitor .

また、番組を放送する技術の進歩に伴って、放送用の映像/音声データに対応して字幕データを送信する、いわゆる字幕放送と呼ばれる番組も増えてきている。字幕放送を番組録画装置で録画する技術が知られている(例えば、特許文献2参照)。   In addition, with the advancement of technology for broadcasting programs, so-called subtitle broadcast programs that transmit subtitle data corresponding to video / audio data for broadcasting are also increasing. A technique for recording caption broadcasts with a program recording device is known (see, for example, Patent Document 2).

特許文献2(特開2004−289381号公報)に記載の技術は、テレビジョン放送波から抽出される文字情報の内容をDVDビデオフォーマットで規定されるサブピクチャデータに変換している。そして、サブピクチャデータを、映像や音声のデータとあわせてDVDに記録している。   The technique described in Patent Document 2 (Japanese Patent Application Laid-Open No. 2004-289181) converts the content of character information extracted from a television broadcast wave into sub-picture data defined by the DVD video format. Sub-picture data is recorded on a DVD together with video and audio data.

さらに、録画された字幕放送を任意の位置から再生する技術として、例えば、特許文献3(特開2004−080476号公報)に記載の技術が知られている。   Further, as a technique for reproducing a recorded subtitle broadcast from an arbitrary position, for example, a technique described in Patent Document 3 (Japanese Patent Application Laid-Open No. 2004-080476) is known.

特許文献3に記載の技術は、ユーザから番組の録画指令を受けたとき、デマルチプレクサから出力されるその番組を構成するパーシャルTSを内蔵ハードディスクドライブに書き込むと共に、字幕文字データとその提示時刻情報とを対応付けたテーブルを作成し、録画番組とリンクさせて記憶している。字幕文字による映像検索指令を受けたときには、文字入力画面をOSD表示し、文字入力を受け付ける。入力された文字に一致する或いは類似する字幕文字をテーブルから検索し、その字幕文字の提示時刻の映像を再生している。   In the technique described in Patent Document 3, when a program recording command is received from a user, a partial TS that constitutes the program output from the demultiplexer is written to the internal hard disk drive, and subtitle character data and its presentation time information Are created and linked with recorded programs and stored. When a video search command using subtitle characters is received, the character input screen is OSD displayed and character input is accepted. A subtitle character that matches or is similar to the input character is searched from the table, and a video at the presentation time of the subtitle character is reproduced.

このような番組録画装置で字幕放送を記憶媒体(例えば、DVDディスク)に記録する場合、所望の場面から映像を再生させるための章ごとの区切り符号(以下、チャプタと呼ぶ。)を付与することがある。   When subtitle broadcasts are recorded on a storage medium (for example, a DVD disc) with such a program recording apparatus, a delimiter for each chapter (hereinafter referred to as a chapter) for reproducing a video from a desired scene is given. There is.

上記特許文献に記載の技術を適用して、チャプタを付加する箇所を特定する場合、番組中にそのキーワードが短時間で連続して出現すると、チャプタを付加する箇所も連続的に指定されてしまう。そのため、最適な再生開始箇所を特定することが困難になってしまう場合がある。さらに、キーワードが複数回出現する場合、チャプタを付加する箇所はキーワードが出現する度に指定されてしまう。付与することが可能なチャプタの個数に上限があると、番組途中でその上限に達してしまい、所望の再生開始箇所を特定することができなくなってしまうことがある。   When applying the technique described in the above-mentioned patent document and specifying the part to which the chapter is added, if the keyword appears continuously in a short time in the program, the part to which the chapter is added is also continuously specified. . For this reason, it may be difficult to specify the optimum playback start location. Furthermore, when a keyword appears multiple times, the part to which a chapter is added is specified each time the keyword appears. If there is an upper limit on the number of chapters that can be assigned, the upper limit may be reached in the middle of the program, making it impossible to specify a desired playback start location.

字幕データからキーワードが出現する時刻を特定してチャプタを付与する場合において、そのキーワードが短時間で連続的に出現するときでも、再生開始箇所として適切な箇所を特定することができる技術が望まれている。さらに、付与することが可能なチャプタの個数に上限があるときに、その上限値に対応してチャプタを付与することができる技術が望まれている。   In the case of assigning chapters by specifying the time at which a keyword appears from subtitle data, there is a need for a technology that can identify an appropriate location as a playback start location even when the keyword appears continuously in a short time. ing. Furthermore, when there is an upper limit to the number of chapters that can be assigned, there is a demand for a technique that can assign chapters corresponding to the upper limit value.

また、番組中の音声を放送局に備えられた字幕文字変換器を用いて、リアルタイムで字幕文字へ変換して映像に合わせて放送する字幕放送(以下、リアルタイム字幕放送と呼ぶ)も実現している。リアルタイム字幕放送は、音声が出力される時刻とその音声に対応する字幕が表示される時刻とに時間差が存在する。したがって、リアルタイム字幕放送の字幕データを用いてチャプタを付与すると、そのチャプタで特定された再生開始箇所から所望の音声が出力されない場合がある。   In addition, subtitle broadcast (hereinafter referred to as real-time subtitle broadcast) that converts audio in a program into subtitle characters in real time using a subtitle character converter provided in the broadcast station and broadcasts in accordance with the video is also realized. Yes. In real-time subtitle broadcasting, there is a time difference between the time when audio is output and the time when subtitles corresponding to the audio are displayed. Therefore, when a chapter is assigned using subtitle data of real-time subtitle broadcasting, desired audio may not be output from the reproduction start location specified by the chapter.

通常の字幕放送とリアルタイム字幕放送とを混在させて録画する場合でも、適切にチャプタを付与することができる技術が望まれている。   There is a demand for a technique capable of appropriately assigning chapters even when normal subtitle broadcasting and real-time subtitle broadcasting are mixed and recorded.

特開2000−287156号公報JP 2000-287156 A 特開2004−289381号公報JP 2004-289181 A 特開2004−080476号公報JP 2004-080476 A

本発明が解決しようとする課題は、字幕データからキーワードが出現する時刻を特定して書き込み用データにチャプタを付与する場合において、そのキーワードが字幕として出現する間隔に対応して、再生開始箇所として適切な箇所を特定することができる技術を提供することにある。   The problem to be solved by the present invention is that when specifying a time at which a keyword appears from subtitle data and assigning a chapter to the data for writing, as a playback start location corresponding to an interval at which the keyword appears as a subtitle The object is to provide a technique capable of specifying an appropriate location.

さらに、本発明が解決しようとする他の課題は、書き込み用データに付与することが可能なチャプタの個数に上限があるときに、その上限値に対応してチャプタを付与することができる技術を提供することにある。   Furthermore, another problem to be solved by the present invention is a technique that can assign chapters corresponding to the upper limit value when there is an upper limit on the number of chapters that can be assigned to the write data. It is to provide.

さらに、本発明が解決しようとする他の課題は、通常の字幕放送とリアルタイム字幕放送とを混在させて録画する場合でも、適切にチャプタを付与することができる技術を提供することにある。   Furthermore, another problem to be solved by the present invention is to provide a technique capable of appropriately assigning chapters even when recording is performed by mixing normal subtitle broadcasting and real-time subtitle broadcasting.

以下に、[発明を実施するための最良の形態]で使用される番号を用いて、課題を解決するための手段を説明する。これらの番号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために付加されたものである。ただし、それらの番号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。   The means for solving the problem will be described below using the numbers used in [Best Mode for Carrying Out the Invention]. These numbers are added to clarify the correspondence between the description of [Claims] and [Best Mode for Carrying Out the Invention]. However, these numbers should not be used to interpret the technical scope of the invention described in [Claims].

上記課題を解決するために、以下に述べる番組録画装置を構成する。その番組録画装置は、字幕放送を受信する受信装置(2)から供給される字幕データ付テレビジョン信号(30)に応答して、前記字幕データ付テレビジョン信号(30)から字幕データ(31)と映像音声データ(32)とを抽出するデコーダ装置(4)と、前記字幕データ(31)と前記映像音声データ(32)とに基づいてチャプタ(頭出し用章区切り)付書き込み用画像(39)を生成する書き込み用データ生成装置(1)とを具備して構成する。ここで、前記映像音声データ(32)は、前記字幕放送の映像と音声とを含むものである。
そして、前記書き込み用データ生成装置(1)は、予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブル(33)を生成する字幕データ(31)解析部(12)と、前記初期チャプタ情報テーブル(33)に基づいて前記チャプタ候補時刻を補正して、チャプタ情報テーブル(35)を生成するチャプタ情報テーブル補正部(13)と、前記チャプタ付映像音声記録媒体(39)を生成する書き込み用画像生成部(14)とを有して構成する。
In order to solve the above problems, a program recording apparatus described below is configured. The program recording device responds to the television signal with caption data (30) supplied from the receiving device (2) that receives the caption broadcast, and the caption data (31) from the television signal with caption data (30). And a decoder device (4) for extracting the video and audio data (32), and a writing image (39 with a chapter delimiter for cueing) based on the caption data (31) and the video and audio data (32). ) For generating data for writing (1). Here, the video / audio data (32) includes the video and audio of the subtitle broadcast.
Then, the writing data generation device (1) specifies a time at which a preset keyword is displayed as a caption as a chapter candidate time, and associates the keyword with the chapter candidate time to an initial chapter information table ( 33) The caption information table correction for generating the chapter information table (35) by correcting the chapter candidate time based on the subtitle data (31) analysis unit (12) and the initial chapter information table (33). And a writing image generating unit (14) for generating the chaptered video / audio recording medium (39).

前記字幕データ(31)解析部(12)は、前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止する。
さらに、前記チャプタ情報テーブル補正部(13)は、前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブル(35)を生成する。
そして、前記書き込み用画像生成部(14)は、前記チャプタ情報テーブル(35)に示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データ(34)に前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体(39)を生成する。
上述したような番組録画装置を構成することで、字幕データ(31)を用いてチャプタを生成することが可能になり、そのチャプタを使用して番組の頭出しを行うときに、出力される音声データとのずれを抑制することが可能になる。
The caption data (31) analysis unit (12) determines a time when the keyword newly appears when the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time. It is prohibited to specify the candidate time.
Further, the chapter information table correction unit (13) specifies a chapter setting time based on a time difference between the chapter candidate time and a time at which a sound corresponding to the keyword is output, and the chapter setting time, the keyword, Are associated with each other to generate the chapter information table (35).
Then, the writing image generation unit (14) attaches the chapter information to the writing video / audio data (34) based on the chapter setting time shown in the chapter information table (35), thereby adding the chapter. A video / audio recording medium (39) is generated.
By configuring the program recording apparatus as described above, it is possible to generate chapters using the subtitle data (31), and the audio output when the program is cued using the chapters. Deviation from data can be suppressed.

また、その番組録画装置において、前記字幕データ(31)解析部(12)は、前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブル(33)を構成する。このとき、前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するときには、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定する。さらに、前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成する。そのうえで、前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブル(33)に追加する。   In the program recording apparatus, the caption data (31) analysis unit (12) generates a record in which the keyword and the chapter candidate time are associated with each other, and configures the initial chapter information table (33). At this time, when the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the time at which the keyword newly appears is specified as a new chapter candidate time. Further, a new record is generated by associating a keyword appearance interval, which is a time difference between the chapter candidate time and the new chapter candidate time, the new chapter candidate time, and the keyword. In addition, when the total number of records exceeds a predetermined number, records with a short appearance interval are deleted, and new records are added to the initial chapter information table (33).

また、その番組録画装置において、前記チャプタ情報補正部は音声認識部を含んで構成されることが好ましい。そして、前記音声認識部は、前記書き込み用映像音声データ(34)に含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定する。また、チャプタ情報補正部は、前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。   In the program recording apparatus, it is preferable that the chapter information correction unit includes a voice recognition unit. The voice recognition unit executes voice recognition of the voice data included in the video / audio data for writing (34), and specifies the time when the keyword is output as voice as the keyword voice output time. The chapter information correcting unit corrects the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time, and specifies the chapter setting time.

その番組録画装置において、前記音声認識部は、前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するように機能するものであることが好ましい。そして、前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定する。また、チャプタ情報補正部は、前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないときには、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。   In the program recording apparatus, it is preferable that the voice recognition unit functions to execute voice recognition in a predetermined time range using the chapter candidate time as a reference time. When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time. Further, the chapter information correction unit, based on the time difference between the start time of the keyword speech recognition and the chapter candidate time when the speech corresponding to the keyword is not recognized by the speech recognition performed in the time range. The chapter setting time is specified by correcting the chapter candidate time.

その番組録画装置において、前記音声認識部は、予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するような機能を備えて構成されるものであってもよい。その際、前記チャプタ情報テーブル補正部(13)は、その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。   In the program recording apparatus, the voice recognition unit specifies a voice recognition start time for starting voice recognition based on a predetermined recognition time, and performs voice recognition within a predetermined time range from the specified voice recognition start time. It may be configured to have a function for executing. At that time, the chapter information table correction unit (13) corrects the chapter candidate time based on the correction time determined in advance based on the keyword voice output time obtained by the voice recognition, and sets the chapter setting time. Identify.

また、その番組録画装置において、さらに、前記映像音声データ(32)を処理して前記書き込み用映像音声データ(34)を生成する画像処理部を含む構成であることが好ましい。ここで、前記画像処理部は、前記映像音声データ(32)に対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データ(32)とを対応付けて前記書き込み用映像音声データ(34)を生成する。そして、前記チャプタ情報テーブル補正部(13)は、前記書き込み用映像音声データ(34)に含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する。   The program recording apparatus preferably further includes an image processing unit that processes the video / audio data (32) to generate the video / audio data for writing (34). Here, the image processing unit generates program type information indicating whether the subtitle broadcast corresponding to the video / audio data (32) is a live broadcast program or a recorded broadcast program, and the program type information and the video / audio are displayed. The video / audio data for writing (34) is generated in association with the data (32). Then, the chapter information table correcting unit (13) corrects the chapter candidate time based on the program type information included in the video / audio data for writing (34) to specify the chapter setting time.

また、以下の方法で番組録画を実行することで上記課題を解決することが可能になる。その方法は、下記行為の連鎖であり、その中で述べる映像音声データ(32)は字幕放送の映像データと音声データとを含むものであるとする。
上記課題を解決するために、
[a]字幕データ付テレビジョン信号(30)に応答して、前記字幕データ付テレビジョン信号(30)から字幕データ(31)と映像音声データ(32)とを抽出するステップと、
[b]予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブル(33)を生成するステップと、
[c]前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
[d]前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブル(35)を生成するステップと、
[e]前記字幕データ(31)と前記映像音声データ(32)と前記チャプタ情報テーブル(35)に示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データ(34)に前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体(39)を生成するステップ
を具備する番組録画方法を実行する。
Moreover, it becomes possible to solve the said subject by performing program recording by the following methods. The method is a chain of the following actions, and the video / audio data (32) described therein includes video data and audio data of subtitle broadcasting.
To solve the above problem,
[A] In response to the television signal with caption data (30), extracting caption data (31) and video / audio data (32) from the television signal with caption data (30);
[B] identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and associating the keyword with the chapter candidate time to generate an initial chapter information table (33);
[C] When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
[D] A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter setting time and the keyword are associated with each other to determine the chapter information table (35). A step of generating
[E] Assigning the chapter information to the video / audio data for writing (34) based on the chapter setting time indicated in the caption data (31), the video / audio data (32), and the chapter information table (35). Then, the program recording method comprising the step of generating the chaptered video / audio recording medium (39) is executed.

その番組録画方法において、前記[b]ステップは、下記複数のステップを含むものであることが好ましい。その複数のステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブル(33)を構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブル(33)に追加するステップである。
In the program recording method, the step [b] preferably includes the following steps. The multiple steps are
Generating a record associating the keyword with the chapter candidate time to configure the initial chapter information table (33);
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of records exceeds a predetermined number, the record with a short appearance interval is deleted and a new record is added to the initial chapter information table (33).

その番組録画装置において、前記[d]ステップは、記複数のステップを含むものであることが好ましい。その複数のステップは、
前記書き込み用映像音声データ(34)に含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップである。
In the program recording apparatus, the [d] step preferably includes a plurality of steps. The multiple steps are
Executing voice recognition of voice data included in the video / audio data for writing (34) and specifying a time when the keyword is output as voice as a keyword voice output time;
The step of correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time.

その番組録画方法において、前記[d]ステップは、さらに下記複数のステップを具備するものでああってもよい。ここで、その複数のステップは、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップである。
In the program recording method, the step [d] may further include the following steps. Here, the multiple steps are:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. It is a step.

また、その番組録画方法において、前記[d]ステップは、さらに下記複数のステップを具備するものでああってもよい。ここで、その複数のステップは、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップである。
In the program recording method, the step [d] may further include the following steps. Here, the multiple steps are:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
This is a step of correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.

その番組録画方法において、上述した[a]〜[e]ステップに加えてさらに、下記ステップを実行する。
上記課題を解決するために、
[f]前記映像音声データ(32)に対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データ(32)とを対応付けて前記書き込み用映像音声データ(34)を生成するステップと、
[g]前記書き込み用映像音声データ(34)に含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法を実行する。
In the program recording method, the following steps are executed in addition to the steps [a] to [e] described above.
To solve the above problem,
[F] Program type information indicating whether the caption broadcast corresponding to the video / audio data (32) is a live broadcast program or a recorded broadcast program is generated, and the program type information and the video / audio data (32) are generated. Generating the video / audio data for writing (34) in association with each other;
[G] A program recording method including a step of correcting the chapter candidate time based on the program type information included in the video / audio data for writing (34) is executed.

また、以下に示すコンピュータプログラムを組むことで上記課題を解決すること可能である。そのプログラムはコンピュータを字幕放送を受信する受信手段から供給される字幕データ付テレビジョン信号(30)に応答して、前記字幕データ付テレビジョン信号(30)から字幕データ(31)と映像音声データ(32)とを抽出するデコーダ手段と、前記字幕データ(31)と前記映像音声データ(32)とに基づいてチャプタ付映像音声記録媒体(39)を生成する書き込み用映像音声データ生成手段として機能させるプログラムである。さらに詳細には、そのプログラムは、前記書き込み用映像音声データ生成手段に、
[a]前記デコーダ手段から供給される前記字幕データ(31)と前記映像音声データ(32)とを受け取るステップと、前記映像音声データ(32)は前記字幕放送の映像データと音声データとを含み、
[b]予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブル(33)を生成するステップと、
[c]前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
[d]前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブル(35)を生成するステップと、
[e]前記字幕データ(31)と前記映像音声データ(32)と前記チャプタ情報テーブル(35)に示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データ(34)に前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体に書き込むためのデータ(39)を生成するステップ
を具備する方法を実行させる番組録画プログラムである。
Moreover, it is possible to solve the above problems by assembling the computer program shown below. The program responds to the television signal with caption data (30) supplied from the receiving means for receiving caption broadcast by the computer, and the caption data (31) and video / audio data from the television signal with caption data (30). (32) decoder function, and writing video / audio data generating means for generating a chaptered video / audio recording medium (39) based on the caption data (31) and the video / audio data (32). It is a program to let you. More specifically, the program is stored in the writing video / audio data generating means.
[A] receiving the caption data (31) and the video / audio data (32) supplied from the decoder means; and the video / audio data (32) includes video data and audio data of the caption broadcast. ,
[B] identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and associating the keyword with the chapter candidate time to generate an initial chapter information table (33);
[C] When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
[D] A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter setting time and the keyword are associated with each other to determine the chapter information table (35). Generating
[E] Assigning the chapter information to the video / audio data for writing (34) based on the chapter setting time indicated in the caption data (31), the video / audio data (32), and the chapter information table (35). A program recording program for executing a method comprising the step of generating data (39) to be written to the chaptered video / audio recording medium.

その番組録画プログラムにおいて、前記[b]ステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブル(33)を構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブル(33)に追加するステップ
を具備するものであってもよい。
In the program recording program, the [b] step includes:
Generating a record associating the keyword with the chapter candidate time to configure the initial chapter information table (33);
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of records exceeds a predetermined number, a step of deleting a record with a short appearance interval and adding a new record to the initial chapter information table (33) may be provided.

また、その番組録画プログラムにおいて、前記[d]ステップは、
前記書き込み用映像音声データ(34)に含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備するものであってもよい。
In the program recording program, the step [d] includes
Executing voice recognition of voice data included in the video / audio data for writing (34) and specifying a time when the keyword is output as voice as a keyword voice output time;
A step of correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time may be provided.

また、その番組録画プログラムにおいて、前記[d]ステップは、さらに、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備するものであってもよい。
In the program recording program, the step [d] further includes:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. It may comprise a step.

その番組録画プログラムにおいて、前記[d]ステップは、さらに、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップ
を具備するものであってもよい。
In the program recording program, the [d] step further includes:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
The keyword speech output time obtained by the speech recognition may be corrected based on a predetermined correction time to correct the chapter candidate time.

その番組録画プログラムにおいて、前記コンピュータを、さらに、前記映像音声データ(32)を処理して前記書き込み用映像音声データ(34)を生成する画像処理手段として機能させるプログラムであることが好ましい。そして、そのプログラムは前記書き込み用映像音声データ生成手段に、さらに、
[f]前記映像音声データ(32)に対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データ(32)とを対応付けて前記書き込み用映像音声データ(34)を生成するステップと、
[g]前記書き込み用映像音声データ(34)に含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する方法を実行させる番組録画プログラムであることが好ましい。
In the program recording program, it is preferable that the program further causes the computer to function as image processing means for processing the video / audio data (32) to generate the video / audio data for writing (34). Then, the program is further stored in the writing video / audio data generating means.
[F] Program type information indicating whether the caption broadcast corresponding to the video / audio data (32) is a live broadcast program or a recorded broadcast program is generated, and the program type information and the video / audio data (32) are generated. Generating the video / audio data for writing (34) in association with each other;
[G] It is preferable that the program recording program execute a method including a step of correcting the chapter candidate time based on the program type information included in the video / audio data for writing (34).

本発明によると、字幕データからキーワードが出現する時刻を特定してチャプタを付与する場合において、そのキーワードが短時間で連続的に出現するときでも、再生開始箇所として適切な箇所を特定することができる。   According to the present invention, when assigning chapters by specifying the time at which a keyword appears from subtitle data, even when the keyword appears continuously in a short time, it is possible to specify an appropriate location as a playback start location. it can.

さらに、本発明によると、付与することが可能なチャプタの個数に上限があるときに、その上限値に対応してチャプタを付与することができる。   Furthermore, according to the present invention, when there is an upper limit to the number of chapters that can be assigned, chapters can be assigned corresponding to the upper limit value.

さらに、本発明によると、通常の字幕放送とリアルタイム字幕放送とを混在させて録画する場合でも、適切にチャプタを付与することができる。   Furthermore, according to the present invention, even when normal subtitle broadcasting and real-time subtitle broadcasting are mixed and recorded, chapters can be appropriately assigned.

以下に、図面を参照して本発明を実施するための形態について説明を行う。以下の説明において、本実施の形態における番組録画システムが、受信した字幕放送をDVDディスクに記録するシステムである場合を例示して説明を行う。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In the following description, the case where the program recording system in the present embodiment is a system that records received subtitle broadcasts on a DVD disc will be described as an example.

図1は、本発明の実施の形態に構成を例示するブロック図である。図1を参照すると、本実施の形態のデジタル録画システムは、DVDデータ生成装置1と、放送受信装置2と、アンテナ3と、字幕放送デコーダ4と、入力装置5と、表示装置6と、DVDデータ書き込み装置7とを含んで構成されている。DVDデータ生成装置1は、本実施の形態の番組録画システムにおける記録用データを生成する情報処理装置である。以下の実施の形態において、DVDデータ生成装置1がパーソナルコンピュータである場合を例示し、通常パーソナルコンピュータに備えられている情報処理機能を用いて本発明を実現する場合に対応して説明を行う。また、以下の実施の形態において、受信した番組を記録するための記録媒体として、DVDディスクを用いる場合を例示して説明を行う。   FIG. 1 is a block diagram illustrating a configuration according to an embodiment of the present invention. Referring to FIG. 1, the digital recording system according to the present embodiment includes a DVD data generating device 1, a broadcast receiving device 2, an antenna 3, a caption broadcast decoder 4, an input device 5, a display device 6, and a DVD. The data writing device 7 is included. The DVD data generation device 1 is an information processing device that generates recording data in the program recording system of the present embodiment. In the following embodiments, the case where the DVD data generation device 1 is a personal computer will be exemplified, and description will be made in correspondence with the case where the present invention is realized using an information processing function normally provided in the personal computer. In the following embodiments, a case where a DVD disk is used as a recording medium for recording a received program will be described as an example.

図1に示されているように、DVDデータ生成装置1は、送受信部8と、演算処理部9と、主記憶部10と、複数の情報処理部(11〜14)と、大容量記憶装置15とを含んで構成されている。本実施の形態において、DVDデータ生成部14は、複数の情報処理機能ブロック(17〜20)で構成されている。また、大容量記憶装置15は、複数の情報格納部(21〜26)を含んで構成されている。図1に示されているように、DVDデータ生成装置1に備えられている各機能ブロック(8〜15)は、バス16を介して互いに接続されている。なお、DVDデータ生成装置1を構成する各機能ブロックの詳細は後述するものとする。   As shown in FIG. 1, the DVD data generation device 1 includes a transmission / reception unit 8, an arithmetic processing unit 9, a main storage unit 10, a plurality of information processing units (11 to 14), and a mass storage device. 15. In the present embodiment, the DVD data generation unit 14 includes a plurality of information processing function blocks (17 to 20). The mass storage device 15 includes a plurality of information storage units (21 to 26). As shown in FIG. 1, the functional blocks (8 to 15) provided in the DVD data generation device 1 are connected to each other via a bus 16. The details of each functional block constituting the DVD data generation device 1 will be described later.

放送受信装置2は、字幕放送の受信を行い、受信した放送を所定の表示装置に表示させる機能を有する装置である。図1を参照すると、放送受信装置2は、アンテナ3を介して字幕放送を受信する場合の構成が例示されている。放送受信装置2は、受信した字幕放送52をMPEG2エンコード部11に供給する。MPEG2エンコード部11はその字幕放送から映像音声データを特定してMPEG2エンコードを行う。   The broadcast receiving device 2 is a device having a function of receiving a caption broadcast and displaying the received broadcast on a predetermined display device. Referring to FIG. 1, a configuration in which the broadcast receiving device 2 receives a caption broadcast via an antenna 3 is illustrated. The broadcast receiving device 2 supplies the received caption broadcast 52 to the MPEG2 encoding unit 11. The MPEG2 encoding unit 11 specifies video / audio data from the caption broadcast and performs MPEG2 encoding.

字幕放送デコーダ4は、放送受信装置2が受信した字幕放送から、字幕データを抽出する装置である。   The caption broadcast decoder 4 is an apparatus that extracts caption data from the caption broadcast received by the broadcast receiving apparatus 2.

入力装置5は、キーボードやマウスなど、本体装置にデータを入力することが可能な機能を備える装置である。表示装置6は、CRTディスプレイや液晶表示装置など、画面に情報を表示する表示装置である。DVDデータ書き込み装置7は、DVDデータ生成装置1から供給される書き込み用DVDデータをDVDディスクに書き込む可能DVDドライブである。   The input device 5 is a device having a function such as a keyboard and a mouse that can input data to the main device. The display device 6 is a display device that displays information on a screen, such as a CRT display or a liquid crystal display device. The DVD data writing device 7 is a DVD drive capable of writing the writing DVD data supplied from the DVD data generating device 1 to a DVD disc.

以下に、DVDデータ生成装置1を構成する各ブロックについて説明を行う。DVDデータ生成装置1の送受信部8は、DVDデータ生成装置1の外部から供給されるデータを、DVDデータ生成装置1の内部で情報処理可能な形式に変換する通信インターフェースである。本実施の形態における送受信部8は、字幕放送デコーダ4から出力される字幕放送に関連するデータを受信し、そのデータを形式変換してバス16を介して所定の機能ブロックに供給している。また、本実施の形態の送受信部8が、入力装置5および表示装置6に接続され、それぞれの装置と送受信可能な構成であってもよい。   Below, each block which comprises the DVD data generation apparatus 1 is demonstrated. The transmission / reception unit 8 of the DVD data generation device 1 is a communication interface that converts data supplied from the outside of the DVD data generation device 1 into a format that allows information processing inside the DVD data generation device 1. The transmission / reception unit 8 in the present embodiment receives data related to the caption broadcast output from the caption broadcast decoder 4, converts the format of the data, and supplies the data to a predetermined functional block via the bus 16. Further, the transmission / reception unit 8 of the present embodiment may be configured to be connected to the input device 5 and the display device 6 so as to be able to transmit / receive to / from each device.

演算処理部9は、DVDデータ生成装置1に備えられた各種装置の制御やデータの処理を行うプロセッシングユニットである。本実施の形態において、演算処理部9は、DVDデータ生成装置1に備えられているCPU(Central Processing Unit:中央演算処理装置)である場合に対応して説明を行う。   The arithmetic processing unit 9 is a processing unit that controls various devices provided in the DVD data generation device 1 and processes data. In the present embodiment, the arithmetic processing unit 9 will be described corresponding to a case where it is a CPU (Central Processing Unit) provided in the DVD data generation device 1.

主記憶部10は、電気的にデータを記憶する記憶媒体である。主記憶部10は、演算処理部9がソフトウェアを実行する場合に、メインメモリとして用いられる。本実施の形態において、主記憶部10
がDVDデータ生成装置1に備えられたRAM(Random Access Memory)であることを前提に説明をおこなう。なお、本実施の形態における主記憶部10は、特定の半導体記憶装置に制限されるものではない。
The main storage unit 10 is a storage medium that electrically stores data. The main storage unit 10 is used as a main memory when the arithmetic processing unit 9 executes software. In the present embodiment, the main storage unit 10
Will be described on the assumption that the data is a RAM (Random Access Memory) provided in the DVD data generation apparatus 1. Note that the main memory unit 10 in the present embodiment is not limited to a specific semiconductor memory device.

MPEG2エンコード部11は、法送受信装置2から供給される字幕放送(映像/音声データ)に応答し、MPEG2規格に対応してMPEG2データ生成する圧縮画像生成機能ブロックである。   The MPEG2 encoding unit 11 is a compressed image generating functional block that generates MPEG2 data corresponding to the MPEG2 standard in response to caption broadcasting (video / audio data) supplied from the legal transmission / reception device 2.

字幕データ解析部12は、字幕放送デコーダ4から供給される字幕データに応答して、その字幕データを解析する情報処理機能ブロックであり、受信する字幕データを随時解析し、予め設定されるキーワードと一致する字幕が表示される時刻を特定する。なお字幕データ解析部12の動作に関する詳細は、後述する。   The caption data analysis unit 12 is an information processing function block that analyzes the caption data in response to the caption data supplied from the caption broadcast decoder 4, and analyzes the received caption data as needed, Specify when matching subtitles are displayed. Details of the operation of the caption data analysis unit 12 will be described later.

チャプタ情報テーブル補正部13は、字幕データに基づいて、書き込み用DVDデータにチャプタ(章)をつける場合に、最適なチャプタを生成するための補正を行う情報処理機能ブロックである。   The chapter information table correction unit 13 is an information processing function block that performs correction for generating an optimum chapter when a chapter (chapter) is added to the writing DVD data based on the caption data.

DVDデータ生成部14は、MPEG2エンコード部11、字幕データ解析部12およびチャプタ情報テーブル補正部13から供給される各種データに基づいて、書き込み用DVDデータを生成する情報処理機能ブロックである。上述したように、DVDデータ生成部14は、サムネイル画像作成部17と、ナビゲーションデータ作成部18と、メニュー画面作成部19と、書き込みデータ作成部20とを含んで構成されている。   The DVD data generation unit 14 is an information processing function block that generates writing DVD data based on various data supplied from the MPEG2 encoding unit 11, the caption data analysis unit 12, and the chapter information table correction unit 13. As described above, the DVD data generation unit 14 includes the thumbnail image creation unit 17, the navigation data creation unit 18, the menu screen creation unit 19, and the write data creation unit 20.

サムネイル画像作成部17は、DVDディスクに格納するサムネイル画像を生成する情報処理機能ブロックである。ナビゲーションデータ作成部18は、DVDディスクにMPEG2データを書き込むときのナビゲーションデータを生成する情報処理機能ブロックである。メニュー画面作成部19は、DVDディスクの作成に対応して、そのDVDディスクに格納するメニュー画面を生成する情報処理機能ブロックである。書き込みデータ作成部20は、MPEG2データ34をDVDディスクに書き込むための書き込み用データを生成する情報処理機能ブロックである。   The thumbnail image creation unit 17 is an information processing function block that generates thumbnail images to be stored on the DVD disc. The navigation data creation unit 18 is an information processing function block that generates navigation data when writing MPEG2 data to a DVD disc. The menu screen creation unit 19 is an information processing function block that generates a menu screen to be stored in a DVD disc in response to creation of the DVD disc. The write data creation unit 20 is an information processing function block that generates write data for writing the MPEG2 data 34 to the DVD disk.

また、大容量記憶装置15は、DVDデータ生成装置1に備えられた情報記憶装置である。本実施の形態における大容量記憶装置15は、DVDデータ生成装置1への電源の供給が遮断された場合であっても、情報の保持を継続することが可能な記憶装置であることが好ましい。したがって、以下の実施の形態において、大容量記憶装置15がハードディスクドライブである場合に対応して説明を行う。   The mass storage device 15 is an information storage device provided in the DVD data generation device 1. The mass storage device 15 in the present embodiment is preferably a storage device that can continue to hold information even when the supply of power to the DVD data generation device 1 is interrupted. Therefore, in the following embodiment, a description will be given corresponding to the case where the mass storage device 15 is a hard disk drive.

上述したように、大容量記憶装置15は、キーワードリスト格納部21と、最大チャプタ情報格納部22と、MPEG2データ格納部23と、DVDデータ格納部24と、チャプタ情報テーブル格納部25と、補正用データ格納部26とを含んで構成されている。   As described above, the mass storage device 15 includes the keyword list storage unit 21, the maximum chapter information storage unit 22, the MPEG2 data storage unit 23, the DVD data storage unit 24, the chapter information table storage unit 25, and the correction. And a data storage unit 26.

キーワードリスト格納部21は、チャプタを生成するときに用いられるキーワードを格納する情報格納部である。キーワードリスト格納部21は、少なくとも一つのキーワードを保持している。以下の実施の形態では、キーワードリスト格納部21は複数のキーワードを保持し、その複数のキーワードは、各情報処理部から読み出し可能な状態であるものとする。キーワードリストは、ユーザによってキーワードが手入力されるものをリストとして保持する場合や、EPG(電子番組表)情報から出演者名などを自動的に抽出することで生成される
最大チャプタ情報格納部22は、本実施の形態において、作成されるDVDディスクに付与することが可能なチャプタの最大数を格納する情報格納部である。最大チャプタ情報格納部22には、DVD規格で定められる最大チャプタ数と、ユーザが独自に設定する最大チャプタ数とが格納されている。付与するチャプタの上限を特定する時には、字幕データ解析部12は最大チャプタ情報格納部22を参照して、その最大チャプタ数を特定する。
The keyword list storage unit 21 is an information storage unit that stores keywords used when generating chapters. The keyword list storage unit 21 holds at least one keyword. In the following embodiment, it is assumed that the keyword list storage unit 21 holds a plurality of keywords, and the plurality of keywords can be read from each information processing unit. The keyword list is generated when a user manually inputs keywords as a list, or by automatically extracting performer names from EPG (electronic program guide) information. Is an information storage unit that stores the maximum number of chapters that can be assigned to a created DVD disc in the present embodiment. The maximum chapter information storage unit 22 stores the maximum number of chapters defined by the DVD standard and the maximum number of chapters set by the user. When specifying the upper limit of chapters to be assigned, the caption data analysis unit 12 refers to the maximum chapter information storage unit 22 and specifies the maximum number of chapters.

MPEG2データ格納部23は、MPEG2エンコード部11から出力されるMPEG2データを格納する情報格納部である。DVDデータ格納部24は、DVDデータ生成部14から出力される書き込み用データを格納する情報格納部である。チャプタ情報テーブル格納部25は、字幕データ解析部12が生成する初期チャプタ情報テーブル33およびチャプタ情報テーブル補正部13が生成するチャプタ情報テーブル35を格納する情報格納である。補正用データ格納部26は、チャプタ情報テーブル補正部13が初期チャプタ情報テーブル33の補正を実行するときに用いる補正用のデータを格納する情報格納部である。   The MPEG2 data storage unit 23 is an information storage unit that stores MPEG2 data output from the MPEG2 encoding unit 11. The DVD data storage unit 24 is an information storage unit that stores write data output from the DVD data generation unit 14. The chapter information table storage unit 25 is an information storage that stores an initial chapter information table 33 generated by the caption data analysis unit 12 and a chapter information table 35 generated by the chapter information table correction unit 13. The correction data storage unit 26 is an information storage unit that stores correction data used when the chapter information table correction unit 13 executes correction of the initial chapter information table 33.

以下に、本実施の形態における詳細な構成を説明する。図2は、本実施の形態の番組録画システムにおける構成とデータの流れとを例示するブロック図である。図2に示されているように、字幕放送デコーダ4は、放送受信装置2と、MPEG2エンコード部11と、字幕データ解析部12とに接続されている。字幕データ解析部12はさらにチャプタ情報テーブル補正部13に接続されている。また、MPEG2エンコード部11は、サムネイル画像作成部17とナビゲーションデータ作成部18と書き込みデータ作成部20とに接続されている。また、チャプタ情報テーブル補正部13はさらに、サムネイル画像作成部17と、ナビゲーションデータ作成部18とに接続されている。サムネイル画像作成部17とナビゲーションデータ作成部18とは、さらにメニュー画面作成部19に接続されている。また、ナビゲーションデータ作成部18は、書き込みデータ作成部20に接続されている。書き込みデータ作成部20は、前述のMPEG2エンコード部11と、そのサムネイル画像作成部17と、メニュー画面作成部19とに接続されている。   The detailed configuration in the present embodiment will be described below. FIG. 2 is a block diagram illustrating a configuration and a data flow in the program recording system of the present embodiment. As shown in FIG. 2, the caption broadcast decoder 4 is connected to the broadcast receiving device 2, the MPEG2 encoding unit 11, and the caption data analysis unit 12. The caption data analysis unit 12 is further connected to a chapter information table correction unit 13. The MPEG2 encoding unit 11 is connected to a thumbnail image creation unit 17, a navigation data creation unit 18, and a write data creation unit 20. The chapter information table correction unit 13 is further connected to a thumbnail image creation unit 17 and a navigation data creation unit 18. The thumbnail image creation unit 17 and the navigation data creation unit 18 are further connected to a menu screen creation unit 19. The navigation data creation unit 18 is connected to the write data creation unit 20. The write data creation unit 20 is connected to the above-described MPEG2 encoding unit 11, its thumbnail image creation unit 17, and the menu screen creation unit 19.

図2を参照すると、本実施の形態の放送受信装置2は、放送の受信に対応して受信放送データ30を出力する。放送受信装置2は、その受信放送データ30に基づいて、映像/音声データ32をMPEG2エンコード部11に出力し、字幕データ31を字幕データ解析部12に出力する。MPEG2エンコード部11は、字幕放送デコーダ4から供給される映像/音声データ32に基づいてMPEG2データ34を出力する。   Referring to FIG. 2, broadcast receiving apparatus 2 of the present embodiment outputs received broadcast data 30 corresponding to the reception of the broadcast. The broadcast receiving device 2 outputs video / audio data 32 to the MPEG2 encoding unit 11 and outputs subtitle data 31 to the subtitle data analyzing unit 12 based on the received broadcast data 30. The MPEG2 encoding unit 11 outputs MPEG2 data 34 based on the video / audio data 32 supplied from the caption broadcast decoder 4.

字幕データ解析部12は、字幕放送デコーダ4から供給される字幕データ31に基づいて初期チャプタ情報テーブル33を出力する。初期チャプタ情報テーブル33とMPEG2データ34はチャプタ情報テーブル補正部13に供給される。チャプタ情報テーブル補正部13は、各々のデータに基づいてチャプタ情報テーブル35を出力し、サムネイル画像作成部17とナビゲーションデータ作成部18とに供給する。   The caption data analysis unit 12 outputs an initial chapter information table 33 based on the caption data 31 supplied from the caption broadcast decoder 4. The initial chapter information table 33 and the MPEG2 data 34 are supplied to the chapter information table correction unit 13. The chapter information table correction unit 13 outputs a chapter information table 35 based on each data, and supplies it to the thumbnail image creation unit 17 and the navigation data creation unit 18.

サムネイル画像作成部17は、MPEG2エンコード部11から供給されるMPEG2データ34とチャプタ情報テーブル補正部13から供給されるチャプタ情報テーブル35に基づいてサムネイル画像データ40をメニュー画面作成部19に出力する。ナビゲーションデータ作成部18は、MPEG2エンコード部11から供給されるMPEG2データ34とチャプタ情報テーブル補正部13から供給されるチャプタ情報テーブル35とに基づいてナビゲーションデータ37をメニュー画面作成部19と書き込みデータ作成部20とに出力する。メニュー画面作成部19は、ナビゲーションデータ37とサムネイル画像データ40とに基づいて、メニュー画面データ38を書き込みデータ作成部20に出力する。書き込みデータ作成部20は、MPEG2データ34と、ナビゲーションデータ37とメニュー画面データ38とに基づいて、チャプタ付書き込み用映像音声データ39を生成する。   The thumbnail image creation unit 17 outputs thumbnail image data 40 to the menu screen creation unit 19 based on the MPEG2 data 34 supplied from the MPEG2 encoding unit 11 and the chapter information table 35 supplied from the chapter information table correction unit 13. The navigation data creation unit 18 creates the navigation data 37 from the menu screen creation unit 19 and the write data creation based on the MPEG2 data 34 supplied from the MPEG2 encoding unit 11 and the chapter information table 35 supplied from the chapter information table correction unit 13. To the unit 20. The menu screen creation unit 19 outputs the menu screen data 38 to the write data creation unit 20 based on the navigation data 37 and the thumbnail image data 40. The writing data creation unit 20 generates chapter-added writing video / audio data 39 based on the MPEG2 data 34, the navigation data 37, and the menu screen data 38.

以下に、図面を参照して、字幕データ解析12の動作について説明を行う。図3は、本実施の形態における字幕データ解析部12の動作を例示するフローチャートである。本実施の形態において、図3に示されている動作は、DVDディスクに書き込むために番組録画が行われることで開始するものとする。図3のステップS101において、字幕データ解析部12は、字幕放送デコーダ4から出力される字幕データ31を受け取る。字幕データ解析部12は、受け取った字幕データ31に応答して、初期チャプタ情報テーブル33の生成を開始する。   The operation of subtitle data analysis 12 will be described below with reference to the drawings. FIG. 3 is a flowchart illustrating the operation of the caption data analysis unit 12 in the present embodiment. In the present embodiment, it is assumed that the operation shown in FIG. 3 starts when a program is recorded for writing on a DVD disc. In step S <b> 101 of FIG. 3, the caption data analysis unit 12 receives caption data 31 output from the caption broadcast decoder 4. In response to the received caption data 31, the caption data analysis unit 12 starts generating the initial chapter information table 33.

ステップS102において、字幕データ解析部12は、初期チャプタ情報テーブルの生成開始に応答して大容量記憶装置15のキーワードリスト格納部21を参照する。字幕データ解析部12は、その参照によって得られたキーワードリストの読み込みを行う。なお、予めキーワードリスト格納部21に格納されるキーワードリストは、ユーザのキーボード入力や、EPG情報に基づいて選択された文字列をキーワードとして設定するなどの方法によって生成される。字幕データ解析部12は、受信した字幕データからキーワードに対応する字幕が出現する時刻を特定し、そのキーワードと出現時刻とを関連付けて一時的に保持する。   In step S102, the caption data analysis unit 12 refers to the keyword list storage unit 21 of the mass storage device 15 in response to the start of the generation of the initial chapter information table. The caption data analysis unit 12 reads the keyword list obtained by the reference. Note that the keyword list stored in the keyword list storage unit 21 in advance is generated by a method such as a user's keyboard input or setting a character string selected based on EPG information as a keyword. The caption data analysis unit 12 identifies the time at which the caption corresponding to the keyword appears from the received caption data, and temporarily holds the keyword in association with the appearance time.

ステップS103において、字幕データ解析部12は、時間経過に対応して字幕データを解析する。字幕データ解析部12は、その解析に基づいて、予め設定されたキーワードが字幕データに出現すると、そのキーワードと出現時刻とを関連付けて初期チャプタ情報テーブルを生成する。字幕データ解析部12は、初期チャプタ情報テーブルの生成過程で、以前に出現したキーワードが再度出現しているかどうかの判断を行う。その判断の結果、キーワードが既出であった場合、処理はステップS104に進む。以前に出現したキーワードが出現していない場合、処理はステップS110に進む。   In step S103, the caption data analysis unit 12 analyzes caption data corresponding to the passage of time. Based on the analysis, the caption data analysis unit 12 generates an initial chapter information table by associating the keyword with the appearance time when a preset keyword appears in the caption data. The caption data analysis unit 12 determines whether a keyword that has appeared before appears again in the process of generating the initial chapter information table. As a result of the determination, if the keyword has already appeared, the process proceeds to step S104. If no previously appearing keyword has appeared, the process proceeds to step S110.

ステップS104において、字幕データ解析部12は、既出のキーワードの出現時刻を特定する。字幕データ解析部12は、特定した時刻に基づいて、前回そのキーワードが字幕として出現した時刻と今回出現した時刻との時間間隔(時間差)を求める。字幕データ解析部12は、その求めた時間間隔が所定の時間(以下、チャプタ未作成時間T1と呼ぶ)を超えているかどうかの判断を行い、超えている場合は、処理はステップS105に進む。その求めた時間差がチャプタ未作成時間T1を超えていない場合は、そのキーワードが出現した時刻をチャプタとして採用しないまま、処理はステップS110に進む。例えば、チャプタ未作成時間T1として、5秒間という時間が設定されているものとする。予め設定されたキーワードが、”00:10:00”に字幕表示されたとして、その出現時刻から5秒以内(00:10:00〜00:10:05までの間)に再度字幕として表示されたとしても、字幕データ解析部12は、その時刻をチャプタ候補時刻として特定しない。   In step S <b> 104, the caption data analysis unit 12 specifies the appearance time of the already-displayed keyword. The caption data analysis unit 12 obtains a time interval (time difference) between the time when the keyword appeared as a caption last time and the time when it appeared this time based on the specified time. The caption data analysis unit 12 determines whether or not the obtained time interval exceeds a predetermined time (hereinafter referred to as chapter non-creation time T1), and if so, the process proceeds to step S105. If the obtained time difference does not exceed the chapter non-creation time T1, the process proceeds to step S110 without adopting the time when the keyword appears as a chapter. For example, it is assumed that a time of 5 seconds is set as the chapter non-creation time T1. Assuming that a preset keyword is displayed as a caption at “00:10:00”, it is displayed again as a caption within 5 seconds (from 00: 10: 0 to 00:10:05) from the appearance time. Even so, the caption data analysis unit 12 does not specify the time as the chapter candidate time.

ステップS105において、字幕データ解析部12は、キーワードが出現した時刻をチャプタ候補時刻とし、そのチャプタ候補時刻と前回キーワードが出現した時刻との時間差を時間間隔情報とし、チャプタ候補時刻と時間間隔情報とを新たなチャプタ番号に関連付けて初期チャプタ情報テーブルを更新する。更新が完了すると、処理はステップS106に進む。   In step S105, the caption data analysis unit 12 sets the time when the keyword appears as the chapter candidate time, sets the time difference between the chapter candidate time and the time when the previous keyword appears as the time interval information, and sets the chapter candidate time and the time interval information as Is associated with the new chapter number and the initial chapter information table is updated. When the update is completed, the process proceeds to step S106.

ステップS106において、字幕データ解析部12は、初期チャプタ情報テーブルが更新されたことに応答して、最大チャプタ情報格納部22を参照し、最大チャプタ数情報を読み込む。   In step S106, in response to the update of the initial chapter information table, the caption data analysis unit 12 refers to the maximum chapter information storage unit 22 and reads the maximum chapter number information.

ステップS107において、字幕データ解析部12は、その現時点における初期チャプタ情報テーブルに保持されている総チャプタ数を特定する。字幕データ解析部12は、その総チャプタ数と読み込んだ最大チャプタ数との比較を行う。その比較の結果、総チャプタ数が最大チャプタ数を超えていない場合、字幕データ解析部12は、初期チャプタ情報テーブルに新たなチャプタ情報を追加する(ステップS108)。その比較の結果、総チャプタ数が最大チャプタ数を超えている場合には、字幕データ解析部12は、同一キーワード出現間隔が、一番短いチャプタを削除して、初期チャプタ情報テーブルを更新する(ステップS109)。   In step S107, the caption data analysis unit 12 specifies the total number of chapters held in the initial chapter information table at the current time. The caption data analysis unit 12 compares the total number of chapters with the read maximum number of chapters. As a result of the comparison, if the total number of chapters does not exceed the maximum number of chapters, the caption data analysis unit 12 adds new chapter information to the initial chapter information table (step S108). If the total number of chapters exceeds the maximum number of chapters as a result of the comparison, the caption data analysis unit 12 updates the initial chapter information table by deleting the chapter with the same keyword appearance interval being the shortest ( Step S109).

ステップS110において、字幕データ解析部12は、字幕データの解析が全て完了したかどうかの判断を行う。その判断の結果、解析が完了していない場合には、処理はステップS103戻る。解析が完了した場合、処理はステップS111に進む。ステップS111において、字幕データ解析部12は、生成してきた初期チャプタ情報テーブルを出力する。   In step S110, the caption data analysis unit 12 determines whether or not all of the caption data analysis has been completed. As a result of the determination, if the analysis is not completed, the process returns to step S103. When the analysis is completed, the process proceeds to step S111. In step S111, the caption data analysis unit 12 outputs the generated initial chapter information table.

これによって、
以下に、初期チャプタ情報テーブルの具体例を示して、字幕データ解析部12の動作および初期チャプタ情報テーブルの構成に関して説明を行う。以下の実施の形態の説明においては、設定されている最大チャプタ数が”8”であるものする。図4は、初期チャプタ情報テーブル33の構成を例示するテーブルである。図4を参照すると、初期チャプタ情報テーブル33は、チャプタ番号41と、キーワード42と、チャプタ候補時刻43と、同一キーワード間隔44とが関連付けられて構成されている。図4に示されている初期チャプタ情報テーブル33は、1番目から8番目までのチャプタ番号41がすでに使用されている場合を例示している。
by this,
Hereinafter, a specific example of the initial chapter information table will be described, and the operation of the caption data analysis unit 12 and the configuration of the initial chapter information table will be described. In the following description of the embodiment, it is assumed that the set maximum number of chapters is “8”. FIG. 4 is a table illustrating the configuration of the initial chapter information table 33. Referring to FIG. 4, the initial chapter information table 33 is configured by associating a chapter number 41, a keyword 42, a chapter candidate time 43, and the same keyword interval 44. The initial chapter information table 33 shown in FIG. 4 illustrates a case where the first to eighth chapter numbers 41 are already used.

チャプタ番号41は、チャプタ候補時刻の特定が行われるごとに付与される番号である。キーワード42は、字幕データ解析部12がキーワードリストに基づいて特定した文字列である。チャプタ候補時刻43は、そのキーワード42が字幕データに基づいて字幕表示される時刻である。同一キーワード間隔44は、以前キーワード字幕表示された時刻とそのキーワードが再度字幕表示される時刻との時間差である。   The chapter number 41 is a number given each time a chapter candidate time is specified. The keyword 42 is a character string specified by the caption data analysis unit 12 based on the keyword list. The chapter candidate time 43 is a time when the keyword 42 is displayed as a caption based on the caption data. The same keyword interval 44 is a time difference between the time when the keyword subtitle is displayed and the time when the keyword is displayed again.

図5は、字幕データを解析した結果、新たにキーワードが出現したときの更新用データ45の構成を例示するテーブルである。図5を参照すると、字幕データの解析開始時刻から27分45秒の時点で”プロ野球”というキーワードが出現したことを示している。このとき字幕データ解析部12は、初期チャプタ情報テーブル33を参照して、前回”プロ野球”というキーワードが出現した時刻(00:12:20)と、今回の出現時刻(00:27:45)とから、同一キーワード間隔44を算出する。   FIG. 5 is a table illustrating the configuration of the update data 45 when a new keyword appears as a result of analyzing the caption data. Referring to FIG. 5, it is shown that the keyword “professional baseball” appears at 27 minutes 45 seconds from the analysis start time of the caption data. At this time, the caption data analysis unit 12 refers to the initial chapter information table 33, and the time when the keyword “professional baseball” appeared last time (00:12:20) and the current appearance time (00:27:45). From the above, the same keyword interval 44 is calculated.

このとき、初期チャプタ情報テーブル33の最大チャプタ数と同数のチャプタ情報を保持しているので、字幕データ解析部12は、図3のフローチャートにおけるステップS109の処理を実行する。字幕データ解析部12は、初期チャプタ情報テーブル33を参照して、同一キーワードの出現間隔が、一番短いチャプタを特定する。図4を参照すると、このときのチャプタ番号が”3”の”小泉首相”というキーワードは、前回出現した時刻から15秒後に出現していることが示されている。字幕データ解析部12は、チャプタ番号3に関連付けられているチャプタ情報を削除し、更新用データ45に示されている情報を新たなチャプタ情報として追加するとともに、初期チャプタ情報テーブル33を更新する。   At this time, since the same number of chapter information as the maximum number of chapters in the initial chapter information table 33 is held, the caption data analysis unit 12 executes the process of step S109 in the flowchart of FIG. The caption data analysis unit 12 refers to the initial chapter information table 33 and identifies the chapter with the shortest appearance interval of the same keyword. Referring to FIG. 4, it is shown that the keyword “Prime Minister Koizumi” with the chapter number “3” at this time appears 15 seconds after the previous appearance. The caption data analysis unit 12 deletes the chapter information associated with the chapter number 3, adds the information indicated in the update data 45 as new chapter information, and updates the initial chapter information table 33.

図6は、更新された初期チャプタ情報テーブル33aの構成を例示するテーブルである。図6を参照すると、更新されたチャプタ情報テーブル33aは、更新前のチャプタ情報テーブル40のチャプタ番号3に関連付けられていた情報が削除されている。また、その策上に伴って各チャプタ情報が繰り上げられている。さらに、図6に示されているように、その削除によって、チャプタ番号2の”小泉首相”というキーワードの次に”小泉首相”というキーワードが出現する時刻が、15分50秒となる。そのため、字幕データ解析部12は初期チャプタ情報テーブル33aチャプタ番号5の同一キーワード間隔44を更新する。   FIG. 6 is a table illustrating the configuration of the updated initial chapter information table 33a. Referring to FIG. 6, in the updated chapter information table 33a, information associated with chapter number 3 in the chapter information table 40 before update is deleted. In addition, each chapter information is carried along with the measure. Furthermore, as shown in FIG. 6, the time when the keyword “Prime Koizumi” appears after the keyword “Prime Minister Koizumi” of chapter number 2 becomes 15 minutes 50 seconds due to the deletion. Therefore, the caption data analysis unit 12 updates the same keyword interval 44 of the initial chapter information table 33a chapter number 5.

これによって、そのキーワードが字幕として出現する間隔に対応して、再生開始箇所として適切な箇所を特定することが可能となる。   This makes it possible to identify an appropriate location as a playback start location corresponding to the interval at which the keyword appears as a caption.

図7は、チャプタ情報テーブル補正部13がチャプタを付与する時刻を補正する動作を例示するフローチャートである。その補正は字幕データ解析部12から供給される初期チャプタ情報テーブル33に基づいて実行される。図7のステップS201において、チャプタ情報テーブル補正部13は、字幕データ解析部12から供給される初期チャプタ情報テーブルを読み込む。ステップS202において、チャプタ情報テーブル補正部13は、MPEG2エンコード部11から出力されるMPEG2データ34を読み込む。   FIG. 7 is a flowchart illustrating an operation in which the chapter information table correction unit 13 corrects the time at which a chapter is given. The correction is executed based on the initial chapter information table 33 supplied from the caption data analysis unit 12. In step S <b> 201 of FIG. 7, the chapter information table correction unit 13 reads the initial chapter information table supplied from the caption data analysis unit 12. In step S202, the chapter information table correction unit 13 reads the MPEG2 data 34 output from the MPEG2 encoding unit 11.

ステップS203において、チャプタ情報テーブル補正部13の音声認識部13−1は、初期チャプタ情報テーブル33(または、初期チャプタ情報テーブル33a)に示されているチャプタ候補時刻43に基づいて、音声認識を開始する時刻(以下、音声認識開始時刻と呼ぶ。)を特定する。音声認識開始時刻は、チャプタ候補時刻から所定の時間(以下、認識時間T2と呼ぶ)だけ早い時刻が設定される。音声認識部13−1は、音声認識開始時刻から音声認識を開始し、一定の時間間隔(音声認識実行時間46)が経過するまでにキーワードに対応する音声の認識を実行する。   In step S203, the speech recognition unit 13-1 of the chapter information table correction unit 13 starts speech recognition based on the chapter candidate time 43 indicated in the initial chapter information table 33 (or the initial chapter information table 33a). The time (hereinafter referred to as the voice recognition start time) is specified. As the speech recognition start time, a time earlier than a chapter candidate time by a predetermined time (hereinafter referred to as recognition time T2) is set. The voice recognition unit 13-1 starts voice recognition from the voice recognition start time, and executes voice recognition corresponding to the keyword until a predetermined time interval (voice recognition execution time 46) elapses.

リアルタイム字幕放送の場合には、音声が出力されてからその音声に対応する字幕が表示されるまで、5〜10秒間程度のタイムラグが発生してしまうことがある。そこで、認識時間T2として、例えば10秒間を設定しておくと、チャプタ候補時刻から音声認識を実行するよりも、キーワードに対応する音声を認識することができる可能性(音声認識率)が高くなる。また、音声認識を終了する時刻を、チャプタ候補時刻から所定の時間だけ遅らせることで、より音声認識率を高めることが可能となる。   In the case of real-time caption broadcasting, there may be a time lag of about 5 to 10 seconds from when the sound is output until the caption corresponding to the sound is displayed. Therefore, if the recognition time T2 is set to 10 seconds, for example, the possibility that the speech corresponding to the keyword can be recognized (speech recognition rate) becomes higher than when speech recognition is executed from the chapter candidate time. . In addition, it is possible to further increase the voice recognition rate by delaying the voice recognition end time by a predetermined time from the chapter candidate time.

ステップS204において、音声認識部13−1は、キーワードに対応する音声データを認識することができたかどうかの判断を実行する。その判断の結果、キーワードに対応する音声データの認識ができた場合、処理はステップS205に進む。キーワードに対応する音声データの認識ができなかった場合、処理はステップS206に進む。   In step S204, the voice recognition unit 13-1 determines whether voice data corresponding to the keyword has been recognized. As a result of the determination, if the voice data corresponding to the keyword can be recognized, the process proceeds to step S205. If the voice data corresponding to the keyword cannot be recognized, the process proceeds to step S206.

ステップS205において、チャプタ情報テーブル補正部13は、音声認識部13−1による音声認識に基づいて、キーワードに対応する音声データが出現する時刻(キーワード出現時刻47)を特定する。ステップS207において、チャプタ情報テーブル補正部13は、キーワード出現時刻47と補正時間T3とに対応してチャプタ時刻を補正する。   In step S205, the chapter information table correction unit 13 specifies the time (keyword appearance time 47) when the voice data corresponding to the keyword appears based on the voice recognition by the voice recognition unit 13-1. In step S207, the chapter information table correction unit 13 corrects the chapter time corresponding to the keyword appearance time 47 and the correction time T3.

ステップS206において、チャプタ情報テーブル補正部13は音声認識部13−1による音声認識ができなかった場合、ステップS203で設定される音声認識開始時刻に対応してチャプタ時刻を補正する。ステップS208において、チャプタ情報テーブル補正部13は補正が完了したときに、チャプタ情報テーブルを更新する。   In step S206, the chapter information table correction unit 13 corrects the chapter time corresponding to the voice recognition start time set in step S203 when the voice recognition unit 13-1 cannot recognize the voice. In step S208, the chapter information table correction unit 13 updates the chapter information table when the correction is completed.

ここで、上述のフローチャートの動作を補正用チャプタ情報テーブルの具体例を示して、チャプタ情報テーブル補正部13の動作およびチャプタ情報テーブルの構成に関して説明を行う。図8は、音声認識実行時間46を含む補正用チャプタ情報テーブル50の構成を例示するテーブルである。補正用チャプタ情報テーブル50は初期チャプタ情報テーブル33に基づいて生成される。以下の説明において第1補正時間T2が10秒であり、補正時間T3が1秒である場合を例示する。   Here, the operation of the above-described flowchart will be described with reference to a specific example of the chapter information table for correction, and the operation of the chapter information table correction unit 13 and the configuration of the chapter information table will be described. FIG. 8 is a table illustrating the configuration of the correction chapter information table 50 including the speech recognition execution time 46. The correction chapter information table 50 is generated based on the initial chapter information table 33. In the following description, a case where the first correction time T2 is 10 seconds and the correction time T3 is 1 second will be exemplified.

図8を参照すると、補正用チャプタ情報テーブル50は、キーワード42とチャプタ候補時刻43とに関連付けられた音声認識実行時間46とで構成されている。図8に示されているように。補正用チャプタ情報テーブル50は、各チャプタ候補時刻43より第1補正時間T2(10秒間)早い時刻を音声認識開始時刻として特定している。また、各チャプタ候補時刻43より5秒遅い時刻を音声認識終了時刻として特定している。音声認識部13−1は、補正用チャプタ情報テーブル50の音声認識実行時間46に示されている時間の音声認識を実行し、キーワードに対応する音声データが出現する時刻を特定する。   Referring to FIG. 8, the correction chapter information table 50 includes a keyword 42 and a speech recognition execution time 46 associated with the chapter candidate time 43. As shown in FIG. The correction chapter information table 50 specifies a time that is earlier than each chapter candidate time 43 by a first correction time T2 (10 seconds) as a voice recognition start time. In addition, a time 5 seconds later than each chapter candidate time 43 is specified as the voice recognition end time. The speech recognition unit 13-1 performs speech recognition for the time indicated by the speech recognition execution time 46 in the correction chapter information table 50, and identifies the time when the speech data corresponding to the keyword appears.

図9は、音声認識部13−1による音声認識の結果(キーワード出現時刻47)と認識対象のキーワードとを関連付けて保持する補正用チャプタ情報テーブル51の構成を例示するテーブルである。図9を参照すると、チャプタ情報テーブル補正部13は、音声認識部13−1による音声認識の結果をキーワード出現時刻47として各キーワード42に関連付けて保持している。   FIG. 9 is a table exemplifying a configuration of the correction chapter information table 51 that holds the result of speech recognition (keyword appearance time 47) by the speech recognition unit 13-1 and the keyword to be recognized in association with each other. Referring to FIG. 9, the chapter information table correction unit 13 holds the result of speech recognition by the speech recognition unit 13-1 in association with each keyword 42 as a keyword appearance time 47.

図10は、キーワード出現時刻47から第2補正時刻T3を加減して得られたチャプタ設定時刻48と、そのチャプタの特定に用いられるキーワードとを関連付けて保持しているチャプタ情報テーブル35の構成を例示するテーブルである。図10を参照すると、チャプタ情報テーブル35は、音声認識部13−1が実行した音声認識によって得られたキーワード出現時刻47をさらに補正したチャプタ設定時刻48と、キーワード42とを関連付けて保持している。   FIG. 10 shows a configuration of a chapter information table 35 that holds a chapter setting time 48 obtained by adding or subtracting the second correction time T3 from the keyword appearance time 47 and a keyword used for specifying the chapter in association with each other. It is an example table. Referring to FIG. 10, the chapter information table 35 retains the chapter setting time 48 obtained by further correcting the keyword appearance time 47 obtained by the voice recognition executed by the voice recognition unit 13-1 and the keyword 42 in association with each other. Yes.

上述してきたように、チャプタ情報テーブル補正部13は、字幕データに基づいて特定されるチャプタ候補時刻と、MPEG2データの音声が出力される時刻との時間差に対応して補正している。補正することによって得られたチャプタ設定時刻に対応してチャプタを付与させているため、任意のチャプタから記録画像を再生させたときに、音声が途中から再生されてしまうような不具合を低減させることが可能になる。   As described above, the chapter information table correction unit 13 corrects the time corresponding to the time difference between the chapter candidate time specified based on the caption data and the time when the audio of the MPEG2 data is output. Since chapters are assigned in accordance with the chapter setting times obtained by correction, when a recorded image is played back from any chapter, the problem that the sound is played from the middle is reduced. Is possible.

図11は、チャプタ情報テーブル補正部13が実行する補正における、他の実施の形態の動作を例示するフローチャートである。図11に示されているステップS201とステップS202は、図7で説明した動作と同様であるので、詳細な説明は省略する。   FIG. 11 is a flowchart illustrating the operation of another embodiment in the correction executed by the chapter information table correction unit 13. Steps S201 and S202 shown in FIG. 11 are the same as the operations described with reference to FIG.

図11のステップS301において、チャプタ情報テーブル補正部13は、MPEG2エンコード部11から供給されるMPEG2データ34に基づいて、そのMPEG2データ34が生放送番組を録画した字幕データ31から生成されたかどうかの判断を実行する。その判断の結果、MPEG2データ34が、生放送番組を録画した字幕データ31に基づいて生成されている場合、処理はステップS302に進み、録画番組に対応して生成されたMPEG2データ34の場合、処理はステップS303に進む。ここで、チャプタ情報テーブル補正部13は、MPEG2データ34の受信に応答して、EPG情報から番組のジャンルを取得し、そのジャンルに基づいて上記の判断を実行する。例えば、そのジャンルがニュースやスポーツの場合、処理はステップS302に進むこととなる。   In step S301 in FIG. 11, the chapter information table correction unit 13 determines whether or not the MPEG2 data 34 is generated from the caption data 31 in which the live broadcast program is recorded, based on the MPEG2 data 34 supplied from the MPEG2 encoding unit 11. Execute. As a result of the determination, if the MPEG2 data 34 is generated based on the caption data 31 recorded from the live broadcast program, the process proceeds to step S302. If the MPEG2 data 34 is generated corresponding to the recorded program, the process is performed. Advances to step S303. Here, in response to the reception of the MPEG2 data 34, the chapter information table correction unit 13 acquires the genre of the program from the EPG information, and executes the above determination based on the genre. For example, if the genre is news or sports, the process proceeds to step S302.

ステップS302において、チャプタ情報テーブル補正部13は、リアルタイム字幕放送に対応した補正を実行する。また、ステップS303において、チャプタ情報テーブル補正部13は、録画放送用の補正を実行する。   In step S302, the chapter information table correction unit 13 performs correction corresponding to real-time caption broadcasting. In step S303, the chapter information table correction unit 13 executes correction for recording broadcast.

具体的には、例えばチャプタ情報テーブル補正部13は、リアルタイム字幕放送に対応した補正を実行する場合、上述した認識時間T2に対応して、チャプタ設定時刻を特定し、録画放送用の補正を実行する場合には、補正時間T3に対応してチャプタ設定時刻を特定する。   Specifically, for example, when performing the correction corresponding to the real-time caption broadcast, the chapter information table correction unit 13 specifies the chapter setting time corresponding to the above-described recognition time T2, and executes the correction for the recording broadcast. When doing so, the chapter setting time is specified corresponding to the correction time T3.

これによって、番組のジャンルに対応してチャプタを設定する時刻を特定することが可能になる。   This makes it possible to specify the time for setting a chapter corresponding to the genre of the program.

なお、上述してきた実施の形態において、各装置の構成は本発明における構成を限定するものではない。例えば、記録媒体はDVDディスクに限定されるものではなく、受信した字幕放送をHDDレコーダを使用してハードディスクに記録させる構成であってもよい。同様に、上述の実施の形態において、DVDデータ生成装置1がパーソナルコンピュータである場合を例示して説明を行ってきたが、これは、本発明のDVDデータ生成装置1の構成を限定するものではない。例えば、DVDデータ生成装置1として専用の装置を構成して本発明を実現することも可能である。   In the embodiment described above, the configuration of each device does not limit the configuration in the present invention. For example, the recording medium is not limited to a DVD disk, and the received subtitle broadcast may be recorded on a hard disk using an HDD recorder. Similarly, in the above-described embodiment, the case where the DVD data generation device 1 is a personal computer has been described as an example. However, this does not limit the configuration of the DVD data generation device 1 of the present invention. Absent. For example, the present invention can be realized by configuring a dedicated apparatus as the DVD data generating apparatus 1.

また、上述の実施の形態において、各情報処理部がコンピュータプログラム(ソフトウェア)である場合を前提に説明を行ってきたが、例えば、任意のプログラムに対応する電子回路(ハードウェア)を構成し、その電子回路を動作させることで、本実施の形態の動作を実現させることが可能である。   In the above-described embodiment, the description has been made on the assumption that each information processing unit is a computer program (software). For example, an electronic circuit (hardware) corresponding to an arbitrary program is configured, The operation of this embodiment can be realized by operating the electronic circuit.

なお、上述の実施の形態において、その動作に矛盾が生じない範囲において、組み合わせて実行することも可能である。   In the above-described embodiment, the operations can be combined and executed within a range where there is no contradiction in the operation.

図1は、本発明の実施の形態の構成を例示するブロック図である。FIG. 1 is a block diagram illustrating the configuration of an embodiment of the present invention. 図2は、本発明の実施の形態の構成とデータの流れとを例示するブロック図である。FIG. 2 is a block diagram illustrating a configuration and a data flow according to the embodiment of this invention. 図3は、本発明の実施の形態におけるデータ解析部の動作を例示するフローチャートである。FIG. 3 is a flowchart illustrating the operation of the data analysis unit in the embodiment of the present invention. 図4は、初期チャプタ情報テーブルの構成を例示するテーブルである。FIG. 4 is a table illustrating the configuration of the initial chapter information table. 図5は、新たなキーワードを例示するテーブルである。FIG. 5 is a table illustrating new keywords. 図6は、新たなキーワードに対応して生成されるチャプタ情報テーブルの構成を例示するテーブルである。FIG. 6 is a table illustrating the configuration of a chapter information table generated corresponding to a new keyword. 図7は、本発明の実施の形態におけるチャプタ情報テーブル補正部の動作を例示するフローチャートである。FIG. 7 is a flowchart illustrating the operation of the chapter information table correction unit according to the embodiment of the present invention. 図8は、補正用チャプタ情報テーブルの構成を例示するテーブルである。FIG. 8 is a table illustrating the configuration of the correction chapter information table. 図9は、補正用チャプタ情報テーブルの構成を例示するテーブルである。FIG. 9 is a table illustrating the configuration of the correction chapter information table. 図10は、チャプタ情報テーブルの構成を例示するテーブルである。FIG. 10 is a table illustrating the configuration of the chapter information table. 図11は、チャプタ情報テーブル補正部の他の動作を例示するフローチャートである。FIG. 11 is a flowchart illustrating another operation of the chapter information table correction unit.

符号の説明Explanation of symbols

1…DVDデータ生成装置
2…放送受信装置
3…アンテナ
4…字幕放送デコーダ
5…入力装置
6…表示装置
7…DVDデータ書き込み装置
8…送受信部
9…演算処理部
10…主記憶部
11…MPEG2エンコード部
12…字幕データ解析部
13…チャプタ情報テーブル補正部
14…DVDデータ生成部
15…大容量記憶装置
16…バス
17…サムネイル画像作成部
18…ナビゲーションデータ作成部
19…メニュー画面作成部
20…書き込みデータ作成部
21…キーワードリスト格納部
22…最大チャプタ情報格納部
23…MPEG2データ格納部
24…DVDデータ格納部
25…チャプタ情報テーブル格納部
26…補正用データ格納部
30…受信放送データ
31…字幕データ
32…映像/音声データ
33、33a…初期チャプタ情報テーブル
34…MPEG2データ
35…チャプタ情報テーブル
37…ナビゲーションデータ
38…メニュー画面データ
39…チャプタ付映像音声記録媒体
40…サムネイル画像データ
41…チャプタ番号
42…キーワード
43…チャプタ候補時刻
44…同一キーワード間隔
45…更新用データ
46…音声認識実行時間
47…キーワード出現時刻
48…チャプタ設定時刻
50、51、補正用チャプタ情報テーブル
52…字幕放送
T1…チャプタ未作成時間
T2…認識時間
T3…補正時間
DESCRIPTION OF SYMBOLS 1 ... DVD data generation device 2 ... Broadcast receiving device 3 ... Antenna 4 ... Subtitle broadcast decoder 5 ... Input device 6 ... Display device 7 ... DVD data writing device 8 ... Transmission / reception unit 9 ... Arithmetic processing unit 10 ... Main storage unit 11 ... MPEG2 Encoding unit 12 ... Subtitle data analysis unit 13 ... Chapter information table correction unit 14 ... DVD data generation unit 15 ... Mass storage device 16 ... Bus 17 ... Thumbnail image creation unit 18 ... Navigation data creation unit 19 ... Menu screen creation unit 20 ... Write data creation unit 21 ... Keyword list storage unit 22 ... Maximum chapter information storage unit 23 ... MPEG2 data storage unit 24 ... DVD data storage unit 25 ... Chapter information table storage unit 26 ... Correction data storage unit 30 ... Received broadcast data 31 ... Subtitle data 32 ... Video / audio data 33, 33a ... Initial chapter information table 34 ... MPEG2 data 35 ... Chapter information table 37 ... Navigation data 38 ... Menu screen data 39 ... Chaptered video / audio recording medium 40 ... Thumbnail image data 41 ... Chapter number 42 ... Keyword 43 ... Chapter candidate time 44 ... Same keyword interval 45 ... Update data 46 ... voice recognition execution time 47 ... keyword appearance time 48 ... chapter setting times 50 and 51, correction chapter information table 52 ... subtitle broadcast T1 ... chapter non-creation time T2 ... recognition time T3 ... correction time

Claims (18)

字幕放送を受信する受信装置から供給される字幕データ付テレビジョン信号に応答して、前記字幕データ付テレビジョン信号から字幕データと映像音声データとを抽出するデコーダ装置と、前記映像音声データは、前記字幕放送の映像と音声とを含み、
前記字幕データと前記映像音声データとに基づいてチャプタ付映像音声記録媒体を生成する書き込み用データ生成装置と
を具備し、
前記書き込み用データ生成装置は、
予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブルを生成する字幕データ解析部と、
前記初期チャプタ情報テーブルに基づいて前記チャプタ候補時刻を補正して、チャプタ情報テーブルを生成するチャプタ情報テーブル補正部と、
前記チャプタ付映像音声記録媒体を生成する書き込み用画像生成部と
を有し、
前記字幕データ解析部は、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止し、
前記チャプタ情報テーブル補正部は、
前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブルを生成し、
前記書き込み用画像生成部は、
前記チャプタ情報テーブルに示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データに前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体を生成する
番組録画装置。
In response to a television signal with caption data supplied from a receiving device that receives caption broadcasting, a decoder device that extracts caption data and video / audio data from the television signal with caption data, and the video / audio data are: Including the video and audio of the subtitle broadcast,
A writing data generating device for generating a chaptered video / audio recording medium based on the caption data and the video / audio data,
The write data generation device includes:
A caption data analysis unit that identifies a time at which a preset keyword is displayed as a caption as a chapter candidate time, and generates an initial chapter information table by associating the keyword with the chapter candidate time;
A chapter information table correction unit that corrects the chapter candidate time based on the initial chapter information table and generates a chapter information table;
An image generation unit for writing that generates the chaptered video and audio recording medium,
The caption data analysis unit
When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time,
The chapter information table correction unit
Identifying the chapter setting time based on the time difference between the chapter candidate time and the time at which the sound corresponding to the keyword is output, generating the chapter information table by associating the chapter setting time with the keyword,
The writing image generation unit
A program recording apparatus that generates the chapter-added video / audio recording medium by adding the chapter information to video / audio data for writing based on the chapter setting time indicated in the chapter information table.
請求項1に記載の番組録画装置において、
前記字幕データ解析部は、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブルを構成し、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定し、
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成し、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブルに追加する
番組録画装置。
The program recording apparatus according to claim 1,
The caption data analysis unit
Generate a record associating the keyword and the chapter candidate time to configure the initial chapter information table,
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the time when the keyword newly appears is specified as a new chapter candidate time,
Generating a new record by associating a keyword appearance interval, which is a time difference between the chapter candidate time and the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of the records exceeds a predetermined number, the program recording device that deletes the record with a short appearance interval and adds a new record to the initial chapter information table.
請求項2に記載の番組録画装置において、
前記チャプタ情報補正部は、音声認識部を含み、
前記音声認識部は、
前記書き込み用映像音声データに含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定し、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。
The program recording apparatus according to claim 2, wherein
The chapter information correction unit includes a voice recognition unit,
The voice recognition unit
Performing voice recognition of the voice data included in the video / audio data for writing to identify the time when the keyword is output as voice, as the keyword voice output time;
A program recording apparatus that corrects the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time to identify the chapter setting time.
請求項3に記載の番組録画装置において、
前記音声認識部は、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行し、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定し、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。
The program recording apparatus according to claim 3, wherein
The voice recognition unit
Perform speech recognition in a predetermined time range with the chapter candidate time as a reference time,
When speech corresponding to the keyword is recognized by speech recognition performed in the time range, the recognized time is specified as the keyword speech output time,
When the voice corresponding to the keyword is not recognized by the voice recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the time when the keyword voice recognition is started and the chapter candidate time. A program recording device that identifies the chapter setting time.
請求項4に記載の番組録画装置において、
前記音声認識部は、予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行し、
前記チャプタ情報テーブル補正部は、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。
The program recording apparatus according to claim 4, wherein
The voice recognition unit identifies a voice recognition start time for starting voice recognition based on a predetermined recognition time, executes voice recognition in a predetermined time range from the specified voice recognition start time,
The chapter information table correction unit
A program recording device that specifies the chapter setting time by correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
請求項1から5の何れか一項に記載の番組録画装置において、
さらに、前記映像音声データを処理して前記書き込み用映像音声データを生成する画像処理部を含み、
前記画像処理部は、前記映像音声データに対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データとを対応付けて前記書き込み用映像音声データを生成し、
前記チャプタ情報テーブル補正部は、
前記書き込み用映像音声データに含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正して前記チャプタ設定時刻を特定する
番組録画装置。
In the program recording device according to any one of claims 1 to 5,
And an image processing unit that processes the video / audio data to generate the video / audio data for writing,
The image processing unit generates program type information indicating whether a subtitle broadcast corresponding to the video / audio data is a live broadcast program or a recorded broadcast program, and associates the program type information with the video / audio data. Generating the video / audio data for writing;
The chapter information table correction unit
A program recording device that corrects the chapter candidate time based on the program type information included in the video / audio data for writing and identifies the chapter setting time.
(a)字幕データ付テレビジョン信号に応答して、前記字幕データ付テレビジョン信号から字幕データと映像音声データとを抽出するステップと、前記映像音声データは前記字幕放送の映像データと音声データとを含み、
(b)予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブルを生成するステップと、
(c)前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
(d)前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブルを生成するステップと、
(e)前記字幕データと前記映像音声データと前記チャプタ情報テーブルに示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データに前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体を生成するステップ
を具備する番組録画方法。
(A) extracting subtitle data and video / audio data from the television signal with subtitle data in response to the television signal with subtitle data; and the video / audio data includes video data and audio data of the subtitle broadcast. Including
(B) identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and generating an initial chapter information table by associating the keyword with the chapter candidate time;
(C) When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
(D) A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter information table is generated by associating the chapter setting time with the keyword. Steps,
(E) Based on the caption data, the video / audio data, and the chapter setting time indicated in the chapter information table, the chapter information is added to the video / audio data for writing to generate the chapter-added video / audio recording medium. A program recording method comprising the steps of:
請求項7に記載の番組録画方法において、
前記(b)ステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブルを構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブルに追加するステップ
を具備する番組録画方法。
The program recording method according to claim 7,
The step (b)
Generating a record associating the keyword with the chapter candidate time and configuring the initial chapter information table;
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of the records exceeds a predetermined number, a program recording method comprising: deleting a record with a short appearance interval and adding a new record to the initial chapter information table.
請求項8に記載の番組録画装置において、
前記(d)ステップは、
前記書き込み用映像音声データに含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。
The program recording apparatus according to claim 8, wherein
The step (d) includes:
Performing voice recognition of audio data included in the video / audio data for writing and specifying a time when the keyword is output as audio as a keyword audio output time;
A program recording method comprising: correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time.
請求項9に記載の番組録画方法において、
前記(d)ステップは、さらに、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。
The program recording method according to claim 9, wherein
The step (d) further includes:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. A program recording method comprising the steps of:
請求項9に記載の番組録画方法において、
前記(d)ステップは、さらに、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。
The program recording method according to claim 9, wherein
The step (d) further includes:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
A program recording method, comprising: correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
請求項7から11の何れか一項に記載の番組録画方法において、
さらに、
(f)前記映像音声データに対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データとを対応付けて前記書き込み用映像音声データを生成するステップと、
(g)前記書き込み用映像音声データに含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する番組録画方法。
The program recording method according to any one of claims 7 to 11,
further,
(F) generating program type information indicating whether the subtitle broadcast corresponding to the video / audio data is a live broadcast program or a recorded broadcast program, and associating the program type information with the video / audio data for the writing Generating video and audio data;
(G) A program recording method comprising: correcting the chapter candidate time based on the program type information included in the video / audio data for writing.
コンピュータを
字幕放送を受信する受信手段から供給される字幕データ付テレビジョン信号に応答して、前記字幕データ付テレビジョン信号から字幕データと映像音声データとを抽出するデコーダ手段と、
前記字幕データと前記映像音声データとに基づいてチャプタ付映像音声記録媒体を生成する書き込み用映像音声データ生成手段
として機能させるプログラムであって、
前記書き込み用映像音声データ生成手段に、
(a)前記デコーダ手段から供給される前記字幕データと前記映像音声データとを受け取るステップと、前記映像音声データは前記字幕放送の映像データと音声データとを含み、
(b)予め設定されたキーワードが字幕として表示される時刻をチャプタ候補時刻として特定し、前記キーワードと前記チャプタ候補時刻とを対応付けて初期チャプタ情報テーブルを生成するステップと、
(c)前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えずに再度字幕として出現するとき、前記キーワードが新たに出現する時刻をチャプタ候補時刻として特定することを禁止するステップと、
(d)前記チャプタ候補時刻と前記キーワードに対応する音声が出力される時刻との時間差に基づいてチャプタ設定時刻を特定し、前記チャプタ設定時刻と前記キーワードとを関連付けて前記チャプタ情報テーブルを生成するステップと、
(e)前記字幕データと前記映像音声データと前記チャプタ情報テーブルに示される前記チャプタ設定時刻に基づいて、書き込み用映像音声データに前記チャプタ情報を付与して前記チャプタ付映像音声記録媒体を生成するステップ
を具備する方法を実行させる
番組録画プログラム。
Decoder means for extracting caption data and video / audio data from the television signal with caption data in response to the television signal with caption data supplied from a receiving means for receiving caption broadcast on a computer;
A program that functions as a writing video / audio data generating means for generating a chaptered video / audio recording medium based on the caption data and the video / audio data,
In the video / audio data generating means for writing,
(A) receiving the subtitle data and the video / audio data supplied from the decoder means; the video / audio data includes video data and audio data of the subtitle broadcast;
(B) identifying a time at which a preset keyword is displayed as a caption as a chapter candidate time, and generating an initial chapter information table by associating the keyword with the chapter candidate time;
(C) When the keyword associated with the chapter candidate time appears again as a caption without exceeding a predetermined time, it is prohibited to specify the time when the keyword newly appears as the chapter candidate time. When,
(D) A chapter setting time is specified based on a time difference between the chapter candidate time and a time at which sound corresponding to the keyword is output, and the chapter information table is generated by associating the chapter setting time with the keyword. Steps,
(E) Based on the caption data, the video / audio data, and the chapter setting time indicated in the chapter information table, the chapter information is added to the video / audio data for writing to generate the chapter-added video / audio recording medium. A program recording program for executing a method comprising the steps.
請求項13に記載の番組録画プログラムにおいて、
前記(b)ステップは、
前記キーワードと前記チャプタ候補時刻とを関連付けたレコードを生成して前記初期チャプタ情報テーブルを構成するステップと、
前記チャプタ候補時刻に対応付けられた前記キーワードが、所定の時間を越えて再度字幕として出現するとき、前記キーワードが新たに出現する時刻を新たなチャプタ候補時刻として特定するステップと
前記チャプタ候補時刻と前記新たなチャプタ候補時刻との時間差であるキーワード出現間隔と前記新たなチャプタ候補時刻と前記キーワードとを関連付けて新たなレコードを生成するステップと、
前記レコードの総数が所定の数を超えるとき、前記出現間隔が短いレコードを削除して、新たなレコードを前記初期チャプタ情報テーブルに追加するステップ
を具備する
番組録画プログラム。
The program recording program according to claim 13,
The step (b)
Generating a record associating the keyword with the chapter candidate time and configuring the initial chapter information table;
When the keyword associated with the chapter candidate time appears again as a caption after a predetermined time, the step of specifying the time when the keyword newly appears as a new chapter candidate time; and the chapter candidate time Generating a new record by associating a keyword appearance interval that is a time difference with the new chapter candidate time, the new chapter candidate time, and the keyword;
When the total number of records exceeds a predetermined number, a program recording program comprising: deleting a record with a short appearance interval and adding a new record to the initial chapter information table.
請求項14に記載の番組録画プログラムにおいて、
前記(d)ステップは、
前記書き込み用映像音声データに含まれる音声データの音声認識を実行して前記キーワードが音声として出力される時刻をキーワード音声出力時刻として特定するステップと、
前記キーワード音声出力時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する
番組録画プログラム。
In the program recording program according to claim 14,
The step (d) includes:
Performing voice recognition of audio data included in the video / audio data for writing and specifying a time when the keyword is output as audio as a keyword audio output time;
A program recording program comprising: correcting the chapter candidate time based on a time difference between the keyword voice output time and the chapter candidate time.
請求項15に記載の番組録画プログラムにおいて、
前記(d)ステップは、さらに、
前記チャプタ候補時刻を基準時刻として所定の時間範囲で音声認識を実行するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されるとき、その認識された時刻を前記キーワード音声出力時刻として特定するステップと、
前記時間範囲で実行された音声認識により、前記キーワードに対応する音声が認識されないとき、前記キーワードの音声認識を開始する時刻と前記チャプタ候補時刻との時間差に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する
番組録画プログラム。
In the program recording program according to claim 15,
The step (d) further includes:
Performing speech recognition in a predetermined time range with the chapter candidate time as a reference time;
When the voice corresponding to the keyword is recognized by the voice recognition performed in the time range, the recognized time is specified as the keyword voice output time;
When the speech corresponding to the keyword is not recognized by speech recognition performed in the time range, the chapter candidate time is corrected based on the time difference between the speech recognition start time of the keyword and the chapter candidate time. A program recording program comprising the steps.
請求項15に記載の番組録画プログラムにおいて、
前記(d)ステップは、さらに、
予め定められた認識時間に基づいて音声認識を開始する音声認識開始時刻を特定し、特定された前記音声認識開始時刻から所定の時間範囲で音声認識を実行するステップと、
その音声認識によって得られた前記キーワード音声出力時刻を、予め定められた補正時間に基づいて前記チャプタ候補時刻を補正するステップ
を具備する
番組録画プログラム。
In the program recording program according to claim 15,
The step (d) further includes:
Specifying a voice recognition start time for starting voice recognition based on a predetermined recognition time, and executing voice recognition within a predetermined time range from the specified voice recognition start time;
A program recording program comprising: correcting the chapter candidate time based on a predetermined correction time for the keyword voice output time obtained by the voice recognition.
請求項13から17の何れか一項に記載の番組録画プログラムにおいて、
前記コンピュータを、さらに、
前記映像音声データを処理して前記書き込み用映像音声データを生成する画像処理手段として機能させ、
前記書き込み用映像音声データ生成手段に、さらに、
(f)前記映像音声データに対応する字幕放送が生放送番組であるか録画放送番組であるかを示す番組種別情報を生成し、前記番組種別情報と前記映像音声データとを対応付けて前記書き込み用映像音声データを生成するステップと、
(g)前記書き込み用映像音声データに含まれる前記番組種別情報に基づいて、前記チャプタ候補時刻を補正するステップ
を具備する方法を実行させる
番組録画プログラム。
The program recording program according to any one of claims 13 to 17,
Said computer further
Function as image processing means for processing the video / audio data to generate the video / audio data for writing,
In the video / audio data generating means for writing,
(F) generating program type information indicating whether the subtitle broadcast corresponding to the video / audio data is a live broadcast program or a recorded broadcast program, and associating the program type information with the video / audio data for the writing Generating video and audio data;
(G) A program recording program that executes a method comprising: correcting the chapter candidate time based on the program type information included in the video / audio data for writing.
JP2005092578A 2005-03-28 2005-03-28 Program recording apparatus, program recording method, and program recording program Expired - Fee Related JP4019085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005092578A JP4019085B2 (en) 2005-03-28 2005-03-28 Program recording apparatus, program recording method, and program recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005092578A JP4019085B2 (en) 2005-03-28 2005-03-28 Program recording apparatus, program recording method, and program recording program

Publications (2)

Publication Number Publication Date
JP2006279290A true JP2006279290A (en) 2006-10-12
JP4019085B2 JP4019085B2 (en) 2007-12-05

Family

ID=37213606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005092578A Expired - Fee Related JP4019085B2 (en) 2005-03-28 2005-03-28 Program recording apparatus, program recording method, and program recording program

Country Status (1)

Country Link
JP (1) JP4019085B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008172421A (en) * 2007-01-10 2008-07-24 Sony Corp Recorder and method, reproducing apparatus and method, and program
JP2009118206A (en) * 2007-11-07 2009-05-28 Hitachi Ltd Image recording/reproducing apparatus
JP2009159483A (en) * 2007-12-27 2009-07-16 Kyocera Corp Broadcast receiver
JP2010109852A (en) * 2008-10-31 2010-05-13 Hitachi Ltd Video indexing method, video recording and playback device, and video playback device
CN101256822B (en) * 2007-03-02 2012-05-02 索尼株式会社 Information processing apparatus, information processing method
WO2014002728A1 (en) * 2012-06-27 2014-01-03 シャープ株式会社 Recording device, television receiver, and recording method
JP2014123898A (en) * 2012-12-21 2014-07-03 Toshiba Corp Electronic apparatus and reproduction control method
US8965184B2 (en) 2007-07-19 2015-02-24 Sony Corporation Video-recording/reproducing apparatus and video-recording/reproducing method
JP2015053589A (en) * 2013-09-06 2015-03-19 株式会社東芝 Electronic apparatus, electronic apparatus control method, and scene control program
JP2017005442A (en) * 2015-06-09 2017-01-05 日本放送協会 Content generation device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027410A (en) * 2000-07-13 2002-01-25 Sony Corp Equipment and method for recording and reproducing image signal, and recording medium
JP2002199348A (en) * 2000-12-27 2002-07-12 Matsushita Electric Ind Co Ltd Information reception recording and reproducing device
JP2004080476A (en) * 2002-08-20 2004-03-11 Sanyo Electric Co Ltd Digital video reproducing device
JP2004207821A (en) * 2002-12-24 2004-07-22 Nippon Hoso Kyokai <Nhk> Subtitle broadcast receiver, subtitle broadcast receiving method, and subtitle broadcast receiving program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027410A (en) * 2000-07-13 2002-01-25 Sony Corp Equipment and method for recording and reproducing image signal, and recording medium
JP2002199348A (en) * 2000-12-27 2002-07-12 Matsushita Electric Ind Co Ltd Information reception recording and reproducing device
JP2004080476A (en) * 2002-08-20 2004-03-11 Sanyo Electric Co Ltd Digital video reproducing device
JP2004207821A (en) * 2002-12-24 2004-07-22 Nippon Hoso Kyokai <Nhk> Subtitle broadcast receiver, subtitle broadcast receiving method, and subtitle broadcast receiving program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008172421A (en) * 2007-01-10 2008-07-24 Sony Corp Recorder and method, reproducing apparatus and method, and program
CN101256822B (en) * 2007-03-02 2012-05-02 索尼株式会社 Information processing apparatus, information processing method
US8965184B2 (en) 2007-07-19 2015-02-24 Sony Corporation Video-recording/reproducing apparatus and video-recording/reproducing method
JP2009118206A (en) * 2007-11-07 2009-05-28 Hitachi Ltd Image recording/reproducing apparatus
JP2009159483A (en) * 2007-12-27 2009-07-16 Kyocera Corp Broadcast receiver
JP2010109852A (en) * 2008-10-31 2010-05-13 Hitachi Ltd Video indexing method, video recording and playback device, and video playback device
WO2014002728A1 (en) * 2012-06-27 2014-01-03 シャープ株式会社 Recording device, television receiver, and recording method
JP2014030180A (en) * 2012-06-27 2014-02-13 Sharp Corp Video recording device, television receiver, and video recording method
JP2014123898A (en) * 2012-12-21 2014-07-03 Toshiba Corp Electronic apparatus and reproduction control method
JP2015053589A (en) * 2013-09-06 2015-03-19 株式会社東芝 Electronic apparatus, electronic apparatus control method, and scene control program
JP2017005442A (en) * 2015-06-09 2017-01-05 日本放送協会 Content generation device and program

Also Published As

Publication number Publication date
JP4019085B2 (en) 2007-12-05

Similar Documents

Publication Publication Date Title
JP4019085B2 (en) Program recording apparatus, program recording method, and program recording program
KR101111537B1 (en) Apparatus and method for supporting viewing and listening
JP5433143B2 (en) Digital broadcast media recording apparatus and recording method
JP2006279241A (en) Program recording device
JP2008124574A (en) Preference extracting apparatus, preference extracting method and preference extracting program
JPWO2006033329A1 (en) Video display device, video display method, and video display program
JP2009004872A (en) One-segment broadcast receiver, one-segment broadcast receiving method and medium recording one-segment broadcast receiving program
JP2008193585A (en) Broadcast program recording/reproducing device and broadcast program recording/reproducing method
JP2004357293A (en) Process of navigation for selection of documents associated with identifiers, and apparatus for implementing the process
JP6266271B2 (en) Electronic device, electronic device control method, and computer program
JP2007267259A (en) Image processing apparatus and file reproducing method
US20070043776A1 (en) Controller to be connected to IEEE 1394 serial bus
KR101233167B1 (en) Apparatus and method for display recording
KR100445006B1 (en) Method and apparatus for managing a recording broadcasting program list
JP6775454B2 (en) Recording reservation device, recording playback device and recording reservation method
KR20100030474A (en) A method for providing service information and the apparatus thereof
JP6575820B2 (en) Recording / playback device
JP2006332765A (en) Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium
JP6290046B2 (en) Video apparatus and video apparatus control method
JP2014207619A (en) Video recording and reproducing device and control method of video recording and reproducing device
JP2008035218A (en) Recorder/reproducer and automatic videotape recording method
JP2011248202A (en) Recording and playback apparatus
JP4456993B2 (en) Data processing apparatus, method thereof, program thereof, and recording medium
WO2020208695A1 (en) Video recording/reproducing device and video recording/reproducing method
JP2006013787A (en) Contents recording apparatus, method, program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070921

R150 Certificate of patent or registration of utility model

Ref document number: 4019085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees