JP2006332720A - Digest creating apparatus and program for digest creating processing - Google Patents

Digest creating apparatus and program for digest creating processing Download PDF

Info

Publication number
JP2006332720A
JP2006332720A JP2005148939A JP2005148939A JP2006332720A JP 2006332720 A JP2006332720 A JP 2006332720A JP 2005148939 A JP2005148939 A JP 2005148939A JP 2005148939 A JP2005148939 A JP 2005148939A JP 2006332720 A JP2006332720 A JP 2006332720A
Authority
JP
Japan
Prior art keywords
video
digest
audio information
digest creation
analyzes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005148939A
Other languages
Japanese (ja)
Other versions
JP4453603B2 (en
Inventor
Shigeru Kafuku
滋 加福
Keisuke Shimada
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005148939A priority Critical patent/JP4453603B2/en
Publication of JP2006332720A publication Critical patent/JP2006332720A/en
Application granted granted Critical
Publication of JP4453603B2 publication Critical patent/JP4453603B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To extract important scenes relating to victory or defeat from a sports program of television broadcast, and then create a digest. <P>SOLUTION: A control unit 3 analyzes audio information of video audio information, analyzes video information of the video audio information, and sets a hit expectation point, on the basis of a result of at least any one of the analysises. Then, the control unit 3 determines the degree of importance, on the basis of a result of analysis of the audio information of a predetermined time after the hit expectation point, and creates a digest of the video audio information, in accordance with the determined degree of importance. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ダイジェスト作成装置およびダイジェスト作成処理のプログラムに関し、特に、テレビ放送のスポーツ番組のダイジェストを作成するダイジェスト作成装置およびダイジェスト作成処理のプログラムに関するものである。   The present invention relates to a digest creation device and a digest creation processing program, and more particularly, to a digest creation device and a digest creation processing program for creating a digest of a television broadcast sports program.

テレビ放送における野球などのスポーツ番組において、重要な映像のシーンを抽出してダイジェストを作成し、再生時間を短縮することによりユーザの便宜を図ることが行われている。例えば、ある提案のスポーツイベントのオーディオ信号からハイライトを抽出する方法およびシステムにおいては、スポーツイベントのオーディオ信号から特徴のセットを抽出し、拍手、喝采、打球、音楽、音声および音楽付き音声からなるグループから選択されるクラスに従って、エントロピー隠れマルコフモデルを使用して抽出された特徴のセットを分類し、全く同じように分類された特徴の隣接するセットをグループ化し、拍手又は喝采として分類された特徴のグループに対応し、所定しきい値より大きい持続時間を有するオーディオ信号の部分をハイライトとして選択する。(特許文献1参照)
特開2004−258659号公報
In a sports program such as baseball in television broadcasting, an important video scene is extracted to create a digest, and a user's convenience is achieved by shortening a reproduction time. For example, in a proposed method and system for extracting highlights from an audio signal of a sporting event, a set of features is extracted from the audio signal of the sporting event and consists of applause, scissors, batting ball, music, voice and voice with music Features that have been extracted using an entropy hidden Markov model according to the class selected from the group, and adjacent sets of features that are classified in exactly the same way, grouped together as applause or spear The portion of the audio signal corresponding to the group of and having a duration greater than a predetermined threshold is selected as the highlight. (See Patent Document 1)
JP 2004-258659 A

しかしながら、上記特許文献1においては、拍手、喝采、打球、音楽、音声および音楽付き音声からなるグループの中で、拍手又は喝采として分類された特徴のグループをハイライトとして選択しているので、例えば、人気の高い打者が次のバッターとしてボックスに入る場合、又は、人気の高い投手がリリーフやストッパとしてマウンドに上がる場合でも、観客からの拍手や喝采があるので、勝負には関係のないシーンがハイライトとして選択される可能性がある。あるいは、スポーツ番組に挿入されるコマーシャルの中にも拍手や喝采があり得るので、そのようなコマーシャルのシーンがハイライトとして選択される可能性がある。
本発明は、このような従来の課題を解決するためのものであり、テレビ放送のスポーツ番組の中から、勝負に関係のある重要なシーンだけを抽出してダイジェストデータを作成することを目的とする。
However, in the above-mentioned Patent Document 1, a group of features classified as applause or scissors is selected as a highlight among the group consisting of applause, scissors, hitting balls, music, speech, and speech with music. Even if a popular batter enters the box as the next batter, or even if a popular pitcher goes up to the mound as a relief or stopper, there will be applause and jealousy from the audience, so there is no scene related to the game May be selected as a highlight. Alternatively, there may be applause and jealousy in commercials inserted into sports programs, and such commercial scenes may be selected as highlights.
An object of the present invention is to solve such a conventional problem, and it is an object of the present invention to create digest data by extracting only important scenes related to a game from a television broadcast sports program. To do.

請求項1に記載のダイジェスト作成装置は、映像音声情報の音声情報を分析する音声分析手段と、映像音声情報の映像情報を分析する映像分析手段と、音声分析手段及び映像分析手段の少なくとも何れか一方の分析結果に基づき打撃期待ポイントを設定する打撃期待ポイント設定手段と、打撃期待ポイント後の所定時間の音声情報の分析結果に基づき重要度を判定する重要度判定手段と、判定された重要度に従って映像音声情報のダイジェストを作成するダイジェスト作成手段と、を具備する構成になっている。   The digest creation device according to claim 1 is at least one of audio analysis means for analyzing audio information of video / audio information, video analysis means for analyzing video information of video / audio information, audio analysis means, and video analysis means. Expected hitting point setting means for setting expected hitting points based on one analysis result, importance determining means for determining importance based on the analysis result of audio information for a predetermined time after expected hitting points, and determined importance And a digest creating means for creating a digest of the video / audio information according to the above.

請求項1のダイジェスト作成装置において、請求項2に記載したように、打撃期待ポイント設定手段は、音声分析手段が打球音または捕球音であると分析した時点を打撃期待ポイントとして設定するような構成にしてもよい。   In the digest creation device according to claim 1, as described in claim 2, the hitting expectation point setting means sets the time point when the voice analysis means has analyzed that it is a hitting sound or a catching sound as an expected hitting point. It may be configured.

請求項2のダイジェスト作成装置において、請求項3に記載したように、打撃期待ポイント設定手段は、映像分析手段が野球場のセンターカメラからの映像であると分析し、かつ音声分析手段が打球音または捕球音であると分析した時点を打撃期待ポイントとして設定するような構成にしてもよい。   3. The digest creation apparatus according to claim 2, wherein the hitting expectation point setting means analyzes that the video analysis means is a video from a center camera of a baseball field, and the voice analysis means is a hitting sound. Or you may make it the structure which sets the time of analyzing that it is a catching sound as a hit | damage expectation point.

請求項1のダイジェスト作成装置において、請求項4に記載したように、打撃期待ポイント設定手段は、映像分析手段が野球場のセンターカメラからの映像が終了したと分析した時点から所定の時間遡って打撃期待ポイントを設定するような構成にしてもよい。   2. The digest creation apparatus according to claim 1, wherein the hitting expectation point setting means is a predetermined time retroactive from the time when the video analysis means analyzes that the video from the center camera of the baseball field has ended. You may make it the structure which sets a hit | damage expectation point.

請求項1のダイジェスト作成装置において、請求項5に記載したように、音声分析手段は、ステレオ放送の差分音声により音声情報を分析するような構成にしてもよい。   In the digest creation device according to claim 1, as described in claim 5, the sound analysis means may be configured to analyze the sound information by the differential sound of the stereo broadcast.

請求項1のダイジェスト作成装置において、請求項6に記載したように、音声分析手段は、隠れマルコフモデルの尤度計算により音声情報を分析するような構成にしてもよい。   In the digest creation apparatus according to claim 1, as described in claim 6, the speech analysis means may be configured to analyze speech information by calculating likelihood of a hidden Markov model.

請求項3または4のダイジェスト作成装置において、請求項7に記載したように、映像分析手段は、色の配置に基づき野球場のセンターカメラからの映像であると分析するような構成にしてもよい。   The digest creation device according to claim 3 or 4, wherein the video analysis means analyzes the video from the center camera of the baseball field based on the color arrangement. .

請求項3または4のダイジェスト作成装置において、請求項8に記載したように、映像分析手段は、色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析するような構成にしてもよい。   5. The digest creation device according to claim 3 or 4, wherein the video analysis means analyzes the video from the center camera of the baseball field based on a color histogram. .

請求項3または4のダイジェスト作成装置において、請求項9に記載したように、映像分析手段は、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析するような構成にしてもよい。   5. The digest creation apparatus according to claim 3, wherein the video analysis means analyzes that the video is from a center camera of a baseball field based on a boundary line between the wall and the ground. It may be.

請求項10に記載のダイジェスト作成処理のプログラムは、コンピュータに、
映像音声情報の音声情報を分析するステップAと、映像音声情報の映像情報を分析するステップBと、ステップA及びステップBの少なくとも何れか一方の分析結果に基づき打撃期待ポイントを設定するステップCと、打撃期待ポイント後の所定時間の音声情報の分析結果に基づき重要度を判定するステップDと、判定された重要度に従って映像音声情報のダイジェストを作成するステップEと、を実行させる。
A program for digest creation processing according to claim 10 is stored in a computer.
Step A for analyzing the audio information of the video / audio information, Step B for analyzing the video information of the video / audio information, Step C for setting the expected hit point based on the analysis result of at least one of Step A and Step B, Then, step D for determining the importance based on the analysis result of the audio information for a predetermined time after the expected hit point is executed, and step E for creating a digest of the video and audio information according to the determined importance.

請求項10のダイジェスト作成処理のプログラムにおいて、請求項11に記載したように、ステップCは、ステップAが打球音または捕球音であると分析した時点を打撃期待ポイントとして設定するような構成にしてもよい。   In the digest creation processing program according to claim 10, as described in claim 11, step C is configured to set a point of time when step A is analyzed as a hitting sound or a catching sound as an expected hit point. May be.

請求項11のダイジェスト作成処理のプログラムにおいて、請求項12に記載したように、ステップCは、ステップBが野球場のセンターカメラからの映像であると分析し、かつステップAが打球音または捕球音であると分析した時点を打撃期待ポイントとして設定するような構成にしてもよい。   In the digest creation processing program according to claim 11, as described in claim 12, step C analyzes that step B is an image from a center camera of a baseball field, and step A is a hitting sound or catching ball You may make it the structure which sets the time of analyzing that it is a sound as a hit | damage expectation point.

請求項10のダイジェスト作成処理のプログラムにおいて、請求項13に記載したように、ステップCは、ステップBが野球場のセンターカメラからの映像が終了したと分析した時点から所定の時間遡って打撃期待ポイントを設定するような構成にしてもよい。   In the digest creation processing program according to claim 10, as described in claim 13, the step C is expected to hit a predetermined time backward from the time when the step B analyzed that the video from the center camera of the baseball field was completed. You may make it the structure which sets a point.

請求項10のダイジェスト作成処理のプログラムにおいて、請求項14に記載したように、ステップAは、ステレオ放送の差分音声により音声情報を分析するような構成にしてもよい。   In the digest creation processing program according to the tenth aspect, as described in the fourteenth aspect, the step A may be configured to analyze the audio information using the differential sound of the stereo broadcast.

請求項10のダイジェスト作成処理のプログラムにおいて、請求項15に記載したように、ステップAは、隠れマルコフモデルの尤度計算により音声情報を分析するような構成にしてもよい。   In the digest creation processing program according to claim 10, as described in claim 15, step A may be configured to analyze the speech information by calculating the likelihood of a hidden Markov model.

請求項12または13のダイジェスト作成処理のプログラムにおいて、請求項16に記載したように、ステップBは、色の配置に基づき野球場のセンターカメラからの映像であると分析するような構成にしてもよい。   In the digest creation processing program according to claim 12 or 13, as described in claim 16, step B is configured to analyze the video from the center camera of the baseball field based on the color arrangement. Good.

請求項12または13のダイジェスト作成処理のプログラムにおいて、請求項17に記載したように、ステップBは、色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析するような構成にしてもよい。   In the digest creation processing program according to claim 12 or 13, as described in claim 17, step B is configured to analyze the video from the center camera of the baseball field based on a color histogram. Good.

請求項12または13のダイジェスト作成処理のプログラムにおいて、請求項18に記載したように、ステップBは、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析するような構成にしてもよい。   In the digest creation processing program according to claim 12 or 13, as described in claim 18, the step B is analyzed based on a boundary line between a wall and a ground as an image from a center camera of a baseball field. It may be configured.

本発明のダイジェスト作成装置及びダイジェスト作成処理のプログラムによれば、テレビ放送のスポーツ番組の中から、勝負に関係のある重要なシーンだけを抽出してダイジェストデータを作成することができるという効果が得られる。   According to the digest creation device and digest creation processing program of the present invention, it is possible to extract digest data by extracting only important scenes related to the game from sports programs of television broadcasting. It is done.

以下、本発明によるダイジェスト作成装置の実施形態について、図1ないし図10を参照して説明する。
図1は、実施形態におけるダイジェスト作成装置の構成を示すブロック図である。図1において、チューナ1は、アンテナから受信したテレビ放送の高周波の受信信号の中から、インタフェース2のチャンネル選択操作により、制御部3から入力されるチャンネル選択信号に応じて、そのチャンネルの受信信号を中間周波数の受信信号に変換し、フィルタ処理などを行ってデコーダ4に出力する。デコーダ4は、チューナ1から入力される受信信号に対してAD変換処理やFFT(高速フーリエ変換)処理を行った後に復号化し、復号化した映像情報を表示部5に出力し、復号化した音声情報をサウンドシステム(図示せず)に出力する。
また、デコーダ4は、インタフェース1の記録操作により、制御部10から入力される記録指令信号に応じて、復号化した映像情報および音声情報をエンコーダ6に出力する。エンコーダ6は、デコーダ4から入力された映像情報および音声情報に対して符号化処理を行って圧縮した状態で、HDD(ハードディスク駆動装置)などの記憶部7に記憶する。
デコーダ4は、インタフェース1の通常の再生操作により、制御部10から入力される再生指令信号に応じて、記憶部7に記憶されている指定された番組の映像情報および音声情報を読み出して、再度復号化して表示部5およびサウンドシステムに出力する。
Hereinafter, an embodiment of a digest creation apparatus according to the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram illustrating a configuration of a digest creation device according to the embodiment. In FIG. 1, a tuner 1 receives a reception signal of a channel in accordance with a channel selection signal input from the control unit 3 by a channel selection operation of the interface 2 from a high-frequency reception signal of a television broadcast received from an antenna. Is converted to an intermediate frequency received signal, filtered, etc., and output to the decoder 4. The decoder 4 performs an AD conversion process and an FFT (Fast Fourier Transform) process on the received signal input from the tuner 1, decodes the decoded signal, and outputs the decoded video information to the display unit 5. Information is output to a sound system (not shown).
Further, the decoder 4 outputs the decoded video information and audio information to the encoder 6 according to the recording command signal input from the control unit 10 by the recording operation of the interface 1. The encoder 6 stores the video information and audio information input from the decoder 4 in a storage unit 7 such as an HDD (Hard Disk Drive Device) in a state where the video information and the audio information are encoded and compressed.
The decoder 4 reads out the video information and audio information of the designated program stored in the storage unit 7 in accordance with the reproduction command signal input from the control unit 10 by the normal reproduction operation of the interface 1, and again Decrypt and output to the display unit 5 and the sound system.

また、デコーダ4は、インタフェース1のダイジェスト作成操作により、制御部10から入力されるダイジェスト作成指令信号に応じて、記憶部7に記憶されている指定された番組の映像情報および音声情報を読み出して、再度復号化してダイジェスト作成部8に出力する。ダイジェスト作成部8は、デコーダ4から入力された多数の種類の音声情報の差分音声の中から、MFCC(メルスケール周波数ケプストラム係数)などで特徴抽出を行って学習したHMM(隠れマルコフモデル)データ9を用いて分析するとともに、映像情報を分析してその映像情報および音声情報のダイジェスト情報を作成し、そのダイジェスト情報をダイジェスト情報記憶部10に保存する。デコーダ4は、インタフェース1のダイジェスト作成操作により、制御部10から入力されるダイジェスト再生指令信号に応じて、記憶部7に記憶されている指定された番組の中からダイジェスト情報の映像情報および音声情報だけを復号化して表示部5およびサウンドシステムに出力する。     Further, the decoder 4 reads out the video information and audio information of the designated program stored in the storage unit 7 in accordance with the digest creation command signal input from the control unit 10 by the digest creation operation of the interface 1. The data is decrypted again and output to the digest creation unit 8. The digest creation unit 8 performs HMM (Hidden Markov Model) data 9 learned by extracting features from MFCC (Melscale Frequency Cepstrum Coefficients) or the like from the differential speech of many types of speech information input from the decoder 4. The video information is analyzed to generate digest information of the video information and audio information, and the digest information is stored in the digest information storage unit 10. In response to the digest reproduction command signal input from the control unit 10 by the digest creation operation of the interface 1, the decoder 4 performs video information and audio information of the digest information from the designated programs stored in the storage unit 7. Are decoded and output to the display unit 5 and the sound system.

次に、図1のダイジェスト作成装置の動作について、図2ないし図4のフローチャート、図5および図6の表、図7の音声情報の波形を示す図、図8ないし図10の画面等に基づいて説明する。アンテナからテレビ放送の受信信号を入力し(ステップSA1)、番組終了か否かを判別する(ステップSA2)。番組終了の場合にはメインフローに戻るが、番組終了でない場合には、デコーダ4によりデコード処理を行って(ステップSA3)、ダイジェスト情報抽出処理を実行する(ステップSA4)。そして、抽出したダイジェスト情報をダイジェスト情報記憶部10に保存する(ステップSA5)。次に、ダイジェスト情報記憶部10に保存したダイジェスト情報に対してエンコーダ6によりエンコード処理を行って符号化し(ステップSA6)、符号化したダイジェスト情報を記憶部7であるHDDに書き込み(ステップSA7)、ステップSA2に移行する。   Next, the operation of the digest creation device of FIG. 1 is based on the flowcharts of FIGS. 2 to 4, the tables of FIGS. 5 and 6, the diagram of the waveform of audio information of FIG. 7, the screens of FIGS. I will explain. A TV broadcast reception signal is input from the antenna (step SA1), and it is determined whether or not the program ends (step SA2). When the program ends, the process returns to the main flow. When the program does not end, the decoder 4 performs decoding processing (step SA3) and executes digest information extraction processing (step SA4). Then, the extracted digest information is stored in the digest information storage unit 10 (step SA5). Next, the digest information stored in the digest information storage unit 10 is encoded and encoded by the encoder 6 (step SA6), and the encoded digest information is written to the HDD serving as the storage unit 7 (step SA7). The process proceeds to step SA2.

図3は、図2におけるステップSA4のダイジェスト情報抽出処理のフローチャートである。まず、左チャンネルの音声情報から右チャンネルの音声情報を差し引いて差分音声を算出する(ステップSB1)。次に、映像情報がセンターカメラの映像でるかどうかを映像分析により検出する(ステップSB2)。映像分析としては、例えば、色の配置に基づき野球場のセンターカメラからの映像であると分析する。図8(1)は、センターカメラからの映像を示す例である。図8(1)において、ピッチャーズマウンドを含む範囲、及び、ホームプレートを含む範囲であるエリアC1は、芝生がなく土が露出している部分であり、茶色ないし焦げ茶色である。エリアC2は芝生の部分であり、ほぼ黄緑色である。エリアC3は壁の部分であり、広告がない場合には平坦な灰色であり、広告がある場合には様々な原色のカラフルな色である。また、エリアCは、観客席であるのでかなり複雑な色になっている。センターカメラの映像は、このような色の配置になっているので、現在の映像がセンターカメラからのものであるか、別のカメラからのものであるかを判別することができる。具体的には、図8(2)に示すように、映像の画面を複数個に分割して平均値を算出し、輝度成分(Y)および色差成分(Cr、Cb)に対してDCT(離散コサイン変換)を行って動画像の統計的性質を分析する。
あるいは色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析する。例えば、図8(1)の映像によれば、壁、土、芝生の色に対応する領域の画面全体に対する割合はは、それぞれ図9(1)、(2)、(3)に示すような値になるので、この値に一致する映像をセンターカメラからの映像であると判断する。
あるいは、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析する。例えば、図8(1)の映像から水平方向のエッジを抽出して水平方向に射影して生成したヒストグラムは、図10に示すように、壁とグラウンドとの境界線aの位置で高い値bを示すので、画面の垂直方向を約6:5に分割する位置にこの値bが存在する映像をセンターカメラからの映像であると判断する。
FIG. 3 is a flowchart of the digest information extraction process in step SA4 in FIG. First, difference audio is calculated by subtracting right channel audio information from left channel audio information (step SB1). Next, it is detected by video analysis whether the video information is a video from the center camera (step SB2). As the video analysis, for example, it is analyzed that the video is from the center camera of the baseball field based on the color arrangement. FIG. 8A is an example showing an image from the center camera. In FIG. 8 (1), an area C1 which is a range including the pitcher's mound and a range including the home plate is a portion where there is no lawn and the soil is exposed, and is brown or dark brown. Area C2 is a lawn portion and is almost yellowish green. The area C3 is a wall portion, and is flat gray when there is no advertisement, and is colorful with various primary colors when there is an advertisement. In addition, since area C is a spectator seat, it has a rather complicated color. Since the image of the center camera has such a color arrangement, it can be determined whether the current image is from the center camera or another camera. Specifically, as shown in FIG. 8 (2), an average value is calculated by dividing the video screen into a plurality of images, and DCT (discrete) is applied to the luminance component (Y) and the color difference components (Cr, Cb). Cosine transform) to analyze the statistical properties of moving images.
Alternatively, based on the color histogram, it is analyzed that the video is from the center camera of the baseball field. For example, according to the video in FIG. 8 (1), the ratio of the area corresponding to the color of the wall, soil, and lawn to the entire screen is as shown in FIGS. 9 (1), (2), and (3), respectively. Therefore, it is determined that the video that matches this value is the video from the center camera.
Or it analyzes that it is a picture from the center camera of a baseball field based on the boundary line of a wall and the ground. For example, the histogram generated by extracting the horizontal edge from the video of FIG. 8A and projecting it in the horizontal direction has a high value b at the position of the boundary a between the wall and the ground as shown in FIG. Therefore, it is determined that the video having this value b at the position where the vertical direction of the screen is divided into about 6: 5 is the video from the center camera.

図3のステップSB3において、センターカメラからの映像であると判別したときは、多数の種類の音声情報の差分音声の中から、打撃期待ポインである打球音または捕球音のエリアであるか否かを決定し(ステップSB4)、その打球音(または捕球音)をMFCCなどで特徴抽出を行って学習したHMMデータ9を用いて尤度計算を行う(ステップSB5)。次に、打球音(または捕球音)の時間軸上の位置を決定する(ステップSB6)。図7は、時間経過に従って差分音声の音量を示す波形を示す図である。このグラフで打球音の波形Dの時間軸上の位置t0を決定し、t0から所定時間Tの範囲の差分音声に対して、HMMデータ9を用いて重要シーンの尤度計算を行う(ステップSB5)。図5は、重要シーンであるか不要なシーンであるかを示す表であり、図6は、各シーンに対するモデル名を示す表である。図6においてモデル名Qが不要なシーンである。   If it is determined in step SB3 in FIG. 3 that the video is from the center camera, it is a hitting sound or a catching sound area that is an expected hit point from among a variety of types of audio difference information. Is determined (step SB4), and likelihood calculation is performed using the HMM data 9 learned by performing feature extraction of the hitting sound (or catching sound) with MFCC or the like (step SB5). Next, the position on the time axis of the hitting sound (or catching sound) is determined (step SB6). FIG. 7 is a diagram illustrating a waveform indicating the volume of the differential sound over time. In this graph, the position t0 on the time axis of the waveform D of the hitting sound is determined, and the likelihood of the important scene is calculated using the HMM data 9 for the difference voice in the range from t0 to the predetermined time T (step SB5). ). FIG. 5 is a table showing whether the scene is an important scene or an unnecessary scene, and FIG. 6 is a table showing a model name for each scene. In FIG. 6, the model name Q is unnecessary.

例えば、図6においてゴロアウトのモデル名Gは図7(A)の波形に相当し、打球音直後から声援が静まり、フライより早めに歓声が上がる。また、図6のボールのモデル名Qは図7(B)に相当し、捕球音の後も鳴り物の応援が続く。図7の(A)と(B)の波形とにおいて、声援と鳴り物とは波形のスペクトルが異なっているので、容易に区別することができる。
なお、図には示さないが、打球音の波形Dの代わりに捕球音の波形を抽出した場合にも、その捕球音の波形の時間軸上の位置から所定時間Tの期間において、三振、四死球のモデル名に対応する波形を分析する。
For example, in FIG. 6, the goro-out model name G corresponds to the waveform of FIG. 7A, and the cheering is calmed immediately after the hitting sound, and the cheering is raised earlier than the fly. Also, the model name Q of the ball in FIG. 6 corresponds to FIG. 7 (B), and the support of the noise continues after the catching sound. In the waveforms of (A) and (B) in FIG. 7, the cheering and the sounding object have different waveform spectra, so that they can be easily distinguished.
Although not shown in the figure, even when the waveform of the catching sound is extracted instead of the waveform D of the hitting sound, in the period of the predetermined time T from the position on the time axis of the waveform of the catching sound, Analyze the waveform corresponding to the model name of the four dead balls.

図3のステップSB7において、重要シーンのHMM尤度計算を行った後は、打球音(または捕球音)から所定時間Tまでのシーンが重要シーンであるか否かを判別し(ステップSB8)、重要シーンである場合には、打球音(または捕球音)の直前から一定の時刻までのシーンに対応する開始時刻および終了時刻をダイジェスト情報としてダイジェスト情報記憶部10に登録する(ステップSB9)。そして、メインルーチンに戻る。   After calculating the HMM likelihood of the important scene in step SB7 in FIG. 3, it is determined whether or not the scene from the hitting sound (or catching sound) to the predetermined time T is an important scene (step SB8). If the scene is an important scene, the start time and end time corresponding to the scene from immediately before the hitting sound (or catching sound) to a certain time are registered in the digest information storage unit 10 as digest information (step SB9). . Then, the process returns to the main routine.

図4は、再生処理のフローチャートである。制御部3は、インタフェース2からダイジェストコマンドを入力する(ステップSC1)と、ダイジェスト情報記憶部10からダイジェスト情報を読み込み(ステップSC2)、番組終了か否かを判別する(ステップSC3)。番組終了でない場合には、読み込んだダイジェスト情報が重要シーンであるか否かを判別する(ステップSC3)。すなわち、記憶部7に記憶されている番組データの経過時刻がダイジェスト情報記憶部10から読み込んだ開始時刻に達したか否かを判別する。重要シーンである場合には、そのシーンの映像情報をデコードして(ステップSC5)、そのシーンの開始時刻から終了時刻までの映像情報を表示部5に出力するとともに、音声情報をサウンドシステムに出力する(ステップSC6)。そして、ステップSC3に移行する。一方、そのシーンが重要シーンでない場合には、そのシーンを再生しないでスキップし(ステップSC7)、ステップSC3に移行する。ステップSC3において、番組終了に達したときはメインルーチンに戻る。   FIG. 4 is a flowchart of the reproduction process. When the digest command is input from the interface 2 (step SC1), the control unit 3 reads the digest information from the digest information storage unit 10 (step SC2), and determines whether or not the program ends (step SC3). If it is not the end of the program, it is determined whether or not the read digest information is an important scene (step SC3). That is, it is determined whether or not the elapsed time of the program data stored in the storage unit 7 has reached the start time read from the digest information storage unit 10. If it is an important scene, the video information of the scene is decoded (step SC5), video information from the start time to the end time of the scene is output to the display unit 5, and audio information is output to the sound system. (Step SC6). Then, the process proceeds to step SC3. On the other hand, if the scene is not an important scene, the scene is skipped without being reproduced (step SC7), and the process proceeds to step SC3. In step SC3, when the program end is reached, the process returns to the main routine.

以上のように、この実施形態によれば、制御部3は、映像音声情報の音声情報を分析するとともに、映像音声情報の映像情報を分析し、少なくとも何れか一方の分析結果に基づき打撃期待ポイントを設定する。そして、打撃期待ポイント後の所定時間の音声情報の分析結果に基づき重要度を判定し、判定した重要度に従って映像音声情報のダイジェストを作成する。
したがって、テレビ放送のスポーツ番組の中から、勝負に関係のある重要なシーンだけを抽出してダイジェストデータを作成することができる。
As described above, according to this embodiment, the control unit 3 analyzes the audio information of the video / audio information, analyzes the video information of the video / audio information, and based on at least one of the analysis results, Set. Then, the importance is determined based on the analysis result of the audio information for a predetermined time after the expected hit point, and a digest of the video / audio information is created according to the determined importance.
Therefore, digest data can be created by extracting only important scenes related to the game from sports programs broadcast on television.

この場合において、制御部3は、打球音または捕球音であると分析した時点を打撃期待ポイントとして設定する。さらに、野球場のセンターカメラからの映像であると分析し、かつ打球音または捕球音であると分析した時点を打撃期待ポイントとして設定する。そして、野球場のセンターカメラからの映像が終了したと分析した時点から所定の時間遡って打撃期待ポイントを設定する。
この場合において、ステレオ放送の差分音声により音声情報を分析する。さらに、隠れマルコフモデル(HMM)の尤度計算により音声情報を分析する。さらに、色の配置に基づき野球場のセンターカメラからの映像であると分析する。あるいは、色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析する。あるいは、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析する。
In this case, the control unit 3 sets a point of time when the hitting sound or the catching sound is analyzed as an expected hit point. Furthermore, it is analyzed that the video is from the center camera of the baseball stadium, and the point in time when it is analyzed that it is a hitting sound or a catching sound is set as an expected hit point. Then, an expected hit point is set retroactively from the time when the video from the center camera of the baseball field is analyzed.
In this case, the audio information is analyzed using the differential audio of the stereo broadcast. Furthermore, speech information is analyzed by likelihood calculation of a hidden Markov model (HMM). Furthermore, it analyzes that it is the image | video from the center camera of a baseball field based on arrangement | positioning of a color. Alternatively, based on the color histogram, the video is analyzed from the center camera of the baseball field. Or it analyzes that it is a picture from a center camera of a baseball field based on a boundary line between a wall and a ground.

また、上記各実施形態においては、あらかじめ装置内の不揮発性のメモリ(例えば、記憶部7)に記憶されたダイジェスト作成処理のプログラムを実行する装置の発明について説明したが、フレキシブルディスク(FD)、CD、MD、メモリカードなどの外部記憶媒体に記録されているプログラムを不揮発性のメモリにインストールしたり、インターネットなどのネットワークからダウンロードしたプログラムをそのメモリにインストールして、そのプログラムを制御部によって実行することも可能である。この場合には、プログラムの発明やそのプログラムを記録した記録媒体の発明を実現できる。   In each of the above embodiments, the invention of an apparatus that executes a digest creation processing program stored in advance in a non-volatile memory (for example, the storage unit 7) in the apparatus has been described, but a flexible disk (FD), A program recorded on an external storage medium such as a CD, MD, or memory card is installed in a non-volatile memory, or a program downloaded from a network such as the Internet is installed in the memory, and the program is executed by the control unit. It is also possible to do. In this case, the invention of the program and the invention of the recording medium on which the program is recorded can be realized.

すなわち、本発明によるダイジェスト作成処理のプログラムは、コンピュータに、映像音声情報の音声情報を分析するステップAと、前記映像音声情報の映像情報を分析するステップBと、前記ステップA及び前記ステップBの少なくとも何れか一方の分析結果に基づき打撃期待ポイントを設定するステップCと、打撃期待ポイント後の所定時間の音声情報の分析結果に基づき重要度を判定するステップDと、判定された重要度に従って映像音声情報のダイジェストを作成するステップEと、を実行させる。   That is, the digest creation processing program according to the present invention includes a step A for analyzing the audio information of the video / audio information, a step B for analyzing the video information of the video / audio information, and the steps A and B. Step C for setting an expected hit point based on at least one of the analysis results, Step D for determining an importance level based on an analysis result of audio information for a predetermined time after the expected hit point, and video according to the determined importance level Step E of creating a digest of voice information is executed.

前記ステップCは、前記ステップAが打球音または捕球音であると分析した時点を打撃期待ポイントとして設定する。
前記ステップCは、前記ステップBが野球場のセンターカメラからの映像であると分析し、かつ前記ステップAが打球音または捕球音であると分析した時点を打撃期待ポイントとして設定する。
前記ステップCは、前記ステップBが野球場のセンターカメラからの映像が終了したと分析した時点から所定の時間遡って打撃期待ポイントを設定する。
前記ステップAは、ステレオ放送の差分音声により音声情報を分析する。
前記ステップAは、隠れマルコフモデルの尤度計算により音声情報を分析する。
前記ステップBは、色の配置に基づき野球場のセンターカメラからの映像であると分析する。
前記ステップBは、色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析する。
前記ステップBは、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析する。
In step C, a point in time when the step A is analyzed to be a hitting sound or a catching sound is set as an expected hit point.
In step C, the step B is analyzed as a video from a center camera of a baseball field, and the point in time when the step A is analyzed as a hitting sound or a catching sound is set as an expected hit point.
In Step C, an expected hitting point is set retroactively from the time point when Step B analyzes that the video from the center camera of the baseball field has ended.
In step A, audio information is analyzed using differential audio of stereo broadcasting.
In step A, speech information is analyzed by calculating the likelihood of a hidden Markov model.
The step B is analyzed based on the color arrangement as a video from the center camera of the baseball field.
The step B is analyzed based on the color histogram as an image from a baseball field center camera.
The step B is analyzed based on the boundary line between the wall and the ground as a video from the center camera of the baseball field.

本発明の実施形態におけるダイジェスト作成装置の構成を示すブロック図。The block diagram which shows the structure of the digest production apparatus in embodiment of this invention. 図1のダイジェスト作成装置の録画処理の動作を示すフローチャート。The flowchart which shows the operation | movement of the video recording process of the digest production apparatus of FIG. 図2におけるダイジェスト情報抽出処理のフローチャート。The flowchart of the digest information extraction process in FIG. 図1のダイジェスト作成装置の再生処理の動作を示すフローチャート。The flowchart which shows the operation | movement of the reproduction | regeneration processing of the digest production apparatus of FIG. 実施形態における映像情報の重要度を示す表。The table | surface which shows the importance of the video information in embodiment. 実施形態における映像情報の重要度とモデル名との対応関係を示す表。The table | surface which shows the correspondence of the importance of image | video information and model name in embodiment. 実施形態における音声情報の波形を示す図。The figure which shows the waveform of the audio | voice information in embodiment. (1)は実施形態におけるセンターカメラからの映像を示す図、(2)は(1)を複数の画面に分割した状態を示す図。(1) is a figure which shows the image | video from the center camera in embodiment, (2) is a figure which shows the state which divided | segmented (1) into several screens. 図8(1)の色のヒストグラムにおいて、(1)は壁、(2)は土、(3)は芝生の色のヒストグラムを示す図。In the color histogram of FIG. 8 (1), (1) is a wall, (2) is soil, and (3) is a lawn color histogram. 図8(1)の壁とグラウンドとの境界線のヒストグラムを示す図。The figure which shows the histogram of the boundary line of the wall of FIG. 8 (1), and a ground.

符号の説明Explanation of symbols

1 チューナ
2 インタフェース
3 制御部
4 デコーダ
5 表示部
6 エンコーダ
7 記憶部
8 ダイジェスト生成部
9 HMMデータ
10 ダイジェスト情報記憶部
DESCRIPTION OF SYMBOLS 1 Tuner 2 Interface 3 Control part 4 Decoder 5 Display part 6 Encoder 7 Storage part 8 Digest production | generation part 9 HMM data 10 Digest information storage part

Claims (18)

映像音声情報の音声情報を分析する音声分析手段と、
前記映像音声情報の映像情報を分析する映像分析手段と、
前記音声分析手段及び前記映像分析手段の少なくとも何れか一方の分析結果に基づき打撃期待ポイントを設定する打撃期待ポイント設定手段と、
打撃期待ポイント後の所定時間の音声情報の分析結果に基づき重要度を判定する重要度判定手段と、
判定された重要度に従って映像音声情報のダイジェストを作成するダイジェスト作成手段と、
を具備することを特徴とするダイジェスト作成装置。
Audio analysis means for analyzing audio information of video and audio information;
Video analysis means for analyzing video information of the video and audio information;
Expected hitting point setting means for setting an expected hitting point based on the analysis result of at least one of the voice analysis means and the video analysis means;
Importance determination means for determining importance based on the analysis result of audio information for a predetermined time after the expected hit point,
A digest creating means for creating a digest of the video and audio information according to the determined importance,
A digest creating apparatus comprising:
前記打撃期待ポイント設定手段は、前記音声分析手段が打球音または捕球音であると分析した時点を打撃期待ポイントとして設定することを特徴とする請求項1に記載のダイジェスト作成装置。   The digest creation device according to claim 1, wherein the expected hit point setting unit sets a point in time when the voice analysis unit analyzes that it is a hitting sound or a catching sound as an expected hit point. 前記打撃期待ポイント設定手段は、前記映像分析手段が野球場のセンターカメラからの映像であると分析し、かつ前記音声分析手段が打球音または捕球音であると分析した時点を打撃期待ポイントとして設定することを特徴とする請求項2に記載のダイジェスト作成装置。   The hitting expectation point setting means uses the time when the video analysis means analyzes that the video is from a center camera of a baseball stadium and the voice analysis means analyzes that it is a hitting sound or a catching sound as an expected hitting point. The digest creation device according to claim 2, wherein the digest creation device is set. 前記打撃期待ポイント設定手段は、前記映像分析手段が野球場のセンターカメラからの映像が終了したと分析した時点から所定の時間遡って打撃期待ポイントを設定することを特徴とする請求項1に記載のダイジェスト作成装置。   2. The expected hit point setting unit sets the expected hit point a predetermined time after the time when the video analysis unit analyzes that the video from the center camera of the baseball field has ended. Digest creation device. 前記音声分析手段は、ステレオ放送の差分音声により音声情報を分析することを特徴とする請求項1に記載のダイジェスト作成装置。   The digest creation apparatus according to claim 1, wherein the voice analysis unit analyzes voice information based on differential audio of stereo broadcasting. 前記音声分析手段は、隠れマルコフモデルの尤度計算により音声情報を分析することを特徴とする請求項1に記載のダイジェスト作成装置。   The digest creation apparatus according to claim 1, wherein the speech analysis unit analyzes speech information by likelihood calculation of a hidden Markov model. 前記映像分析手段は、色の配置に基づき野球場のセンターカメラからの映像であると分析することを特徴とする請求項3または4に記載のダイジェスト作成装置。   The digest creation device according to claim 3 or 4, wherein the video analysis means analyzes that the video is from a center camera of a baseball field based on a color arrangement. 前記映像分析手段は、色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析することを特徴とする請求項3または4に記載のダイジェスト作成装置。   The digest creation device according to claim 3 or 4, wherein the video analysis means analyzes that the video is from a center camera of a baseball field based on a color histogram. 前記映像分析手段は、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析することを特徴とする請求項3または4に記載のダイジェスト作成装置。   The digest creation device according to claim 3 or 4, wherein the video analysis means analyzes that the video is from a center camera of a baseball field based on a boundary line between a wall and the ground. コンピュータに、
映像音声情報の音声情報を分析するステップAと、
前記映像音声情報の映像情報を分析するステップBと、
前記ステップA及び前記ステップBの少なくとも何れか一方の分析結果に基づき打撃期待ポイントを設定するステップCと、
打撃期待ポイント後の所定時間の音声情報の分析結果に基づき重要度を判定するステップDと、
判定された重要度に従って映像音声情報のダイジェストを作成するステップEと、
を実行させるダイジェスト作成処理のプログラム。
On the computer,
Analyzing the audio information of the video and audio information;
Analyzing the video information of the video and audio information;
Step C for setting an expected hit point based on the analysis result of at least one of Step A and Step B;
Step D for determining the importance based on the analysis result of the audio information for a predetermined time after the expected hit point;
Creating a digest of the video and audio information according to the determined importance,
Digest creation process program that executes.
前記ステップCは、前記ステップAが打球音または捕球音であると分析した時点を打撃期待ポイントとして設定することを特徴とする請求項10に記載のダイジェスト作成処理のプログラム。   11. The digest creation processing program according to claim 10, wherein the step C sets the point in time when the step A is analyzed as a hitting sound or a catching sound as an expected hit point. 前記ステップCは、前記ステップBが野球場のセンターカメラからの映像であると分析し、かつ前記ステップAが打球音または捕球音であると分析した時点を打撃期待ポイントとして設定することを特徴とする請求項11に記載のダイジェスト作成処理のプログラム。   In the step C, the step B is analyzed as a video from a center camera of a baseball field, and the point in time when the step A is analyzed as a hitting sound or a catching sound is set as an expected hit point. The digest creation processing program according to claim 11. 前記ステップCは、前記ステップBが野球場のセンターカメラからの映像が終了したと分析した時点から所定の時間遡って打撃期待ポイントを設定することを特徴とする請求項10に記載のダイジェスト作成処理のプログラム。   11. The digest creation process according to claim 10, wherein the step C sets the expected hit point a predetermined time back from the time when the step B analyzed that the video from the center camera of the baseball field has ended. Program. 前記ステップAは、ステレオ放送の差分音声により音声情報を分析することを特徴とする請求項10に記載のダイジェスト作成処理のプログラム。   The digest creation processing program according to claim 10, wherein the step A analyzes audio information using differential audio of stereo broadcasting. 前記ステップAは、隠れマルコフモデルの尤度計算により音声情報を分析することを特徴とする請求項10に記載のダイジェスト作成処理のプログラム。   The digest creation processing program according to claim 10, wherein the step A analyzes speech information by likelihood calculation of a hidden Markov model. 前記ステップBは、色の配置に基づき野球場のセンターカメラからの映像であると分析することを特徴とする請求項12または13に記載のダイジェスト作成処理のプログラム。   The digest creation processing program according to claim 12 or 13, wherein the step B analyzes that the video is from a center camera of a baseball field based on the color arrangement. 前記ステップBは、色のヒストグラムに基づき野球場のセンターカメラからの映像であると分析することを特徴とする請求項12または13に記載のダイジェスト作成処理のプログラム。   14. The digest creation processing program according to claim 12, wherein the step B analyzes that the video is from a center camera of a baseball field based on a color histogram. 前記ステップBは、壁とグラウンドとの境界線に基づき野球場のセンターカメラからの映像であると分析することを特徴とする請求項12または13に記載のダイジェスト作成処理のプログラム。   The digest creation processing program according to claim 12 or 13, wherein the step B is analyzed based on a boundary line between a wall and a ground, and is an image from a center camera of a baseball stadium.
JP2005148939A 2005-05-23 2005-05-23 Digest creation device and digest creation processing program Expired - Fee Related JP4453603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005148939A JP4453603B2 (en) 2005-05-23 2005-05-23 Digest creation device and digest creation processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005148939A JP4453603B2 (en) 2005-05-23 2005-05-23 Digest creation device and digest creation processing program

Publications (2)

Publication Number Publication Date
JP2006332720A true JP2006332720A (en) 2006-12-07
JP4453603B2 JP4453603B2 (en) 2010-04-21

Family

ID=37553993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005148939A Expired - Fee Related JP4453603B2 (en) 2005-05-23 2005-05-23 Digest creation device and digest creation processing program

Country Status (1)

Country Link
JP (1) JP4453603B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122829A (en) * 2007-11-13 2009-06-04 Sony Corp Information processing apparatus, information processing method, and program
JP2013533666A (en) * 2010-05-25 2013-08-22 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー How to summarize videos

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122829A (en) * 2007-11-13 2009-06-04 Sony Corp Information processing apparatus, information processing method, and program
JP2013533666A (en) * 2010-05-25 2013-08-22 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー How to summarize videos

Also Published As

Publication number Publication date
JP4453603B2 (en) 2010-04-21

Similar Documents

Publication Publication Date Title
JP5322550B2 (en) Program recommendation device
JP4767216B2 (en) Digest generation apparatus, method, and program
JP3891111B2 (en) Acoustic signal processing apparatus and method, signal recording apparatus and method, and program
US20080044085A1 (en) Method and apparatus for playing back video, and computer program product
US8009232B2 (en) Display control device, and associated method of identifying content
US20070286579A1 (en) Information signal processing method and apparatus, and computer program product
JP4305269B2 (en) Signal processing apparatus and method
KR20060027826A (en) Video processing apparatus, ic circuit for video processing apparatus, video processing method, and video processing program
CN102265609A (en) Program data processing device, method, and program
JP2002125199A (en) Frame information description method, frame information generating device and method, video reproducing device and method, and recording medium
KR20110063004A (en) Apparatus and method for extracting key frames and apparatus and method for recording broadcast signal using thereof
CN101939988B (en) A broadcasting system, a transmission apparatus and a transmission method, a reception apparatus and a reception method as well as a program
CN101909191B (en) Video processing apparatus and video processing method
JP2009182803A (en) Information playback device and playback speed control method
JP4432823B2 (en) Specific condition section detection device and specific condition section detection method
JP4453603B2 (en) Digest creation device and digest creation processing program
JP4712812B2 (en) Recording / playback device
JP3592210B2 (en) Recording device and recording method
JP2016103714A (en) Video recording and reproducing device
US20080095512A1 (en) Information Signal Processing Method And Apparatus, And Computer Program Product
JP4743228B2 (en) DIGITAL AUDIO SIGNAL ANALYSIS METHOD, ITS DEVICE, AND VIDEO / AUDIO RECORDING DEVICE
JP4310745B2 (en) Program summary device and program summary processing program
JP4519074B2 (en) Video storage / playback device
JP2009171277A (en) Apparatus and method for recoding information data stream
JP4384564B2 (en) Video section detection device, video production device, video section detection program, and video production program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080321

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4453603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees