JP2013030259A - Video processor and video processing method - Google Patents

Video processor and video processing method Download PDF

Info

Publication number
JP2013030259A
JP2013030259A JP2011167745A JP2011167745A JP2013030259A JP 2013030259 A JP2013030259 A JP 2013030259A JP 2011167745 A JP2011167745 A JP 2011167745A JP 2011167745 A JP2011167745 A JP 2011167745A JP 2013030259 A JP2013030259 A JP 2013030259A
Authority
JP
Japan
Prior art keywords
section
video
video data
subtitle
subtitles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011167745A
Other languages
Japanese (ja)
Inventor
Atsushi Kano
淳 狩野
Tatsuya Uehara
龍也 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011167745A priority Critical patent/JP2013030259A/en
Publication of JP2013030259A publication Critical patent/JP2013030259A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video processor and video processing method capable of separating video of a broadcast program at a suitable position.SOLUTION: The video processor of this embodiment includes reception means for receiving video data of a broadcast program, CM detection means for detecting a CM section from the received video data, and storage means for associating separation information with a first position in the vicinity of the head of a first section of the video data and with a second position in the vicinity of the rear end of the CM section to store the separation information together with the video data in a storage medium in the case that video is different between a first section before the detected CM section and a second section after the CM section, and that a portion of characters of a subtitle corresponding to the first section coincides with a portion of characters of a subtitle corresponding to the second section.

Description

本発明の実施形態は、映像処理装置及び映像処理方法に関する。   Embodiments described herein relate generally to a video processing apparatus and a video processing method.

放送番組の映像を記録する場合に、CM区間を検出して番組本編とCM区間の境界にチャプタ等の区切り情報を付与する技術や、CM区間を区切って削除する技術がある。   When recording a broadcast program video, there are a technique for detecting a CM section and adding delimiter information such as chapters at the boundary between the main part of the program and the CM section, and a technique for deleting the CM section by dividing it.

特開2007−272155号公報JP 2007-272155 A 特開2007−82091号公報JP 2007-82091 A

放送番組によっては、CM前後の本編において、CM前と後とで内容が対応する映像が放送される場合があるが、このような場合にも、放送番組の映像を好適な位置で区切れること好ましい。   Depending on the broadcast program, in the main part before and after the CM, the video corresponding to the content may be broadcast before and after the CM. In such a case, the video of the broadcast program may be divided at a suitable position. preferable.

そこで本発明の実施形態は、放送番組の映像を好適な位置で区切ることができる映像処理装置および映像処理方法の提供を目的とする。   Therefore, an object of the embodiment of the present invention is to provide a video processing apparatus and a video processing method capable of dividing a video of a broadcast program at a suitable position.

上記の課題を解決するために、本実施形態の映像処理装置は、放送番組の映像データを受信する受信手段と、受信された映像データからCM区間を検出するCM検出手段と、検出されたCM区間の前の第1区間と後の第2区間の映像が異なる場合であって、第1区間に対応する字幕の文字の一部と、第2区間に対応する字幕の文字の一部とが一致する場合、映像データの第1区間の先頭近傍の第1位置とCM区間の後端近傍の第2位置に区切り情報を対応付けて映像データとともに記憶媒体に記憶させる記憶手段とを備える。   In order to solve the above problems, the video processing apparatus according to the present embodiment includes a receiving unit that receives video data of a broadcast program, a CM detecting unit that detects a CM section from the received video data, and a detected CM. The video of the first section before the section and the second section after the section are different, and a part of the subtitle characters corresponding to the first section and a part of the subtitle characters corresponding to the second section are In the case of coincidence, there is provided storage means for associating the delimiter information with the first position in the vicinity of the head of the first section of the video data and the second position in the vicinity of the rear end of the CM section and storing them in the storage medium together with the video data.

実施形態の映像処理装置の利用形態例を示す図。The figure which shows the utilization example of the video processing apparatus of embodiment. 実施形態の映像処理装置のシステム構成例を示す図。The figure which shows the system configuration example of the video processing apparatus of embodiment. 実施形態の映像処理装置による映像の区切り処理例を示す図。FIG. 3 is a diagram illustrating an example of video segmentation processing by the video processing apparatus according to the embodiment. 実施形態の映像処理装置が区切り処理において用いる字幕データ例を示す図。The figure which shows the example of subtitle data which the video processing apparatus of embodiment uses in a division | segmentation process. 実施形態の映像処理装置による映像の区切り処理に係る処理フロー例を示す図。The figure which shows the example of a processing flow which concerns on the division | segmentation process of the image | video by the video processing apparatus of embodiment.

以下、図面を参照して実施形態を説明する。
図1は本実施形態に係る映像処理装置の利用形態例を示す図である。本実施形態に係る映像処理装置は、例えば録画装置100として実現される。録画装置100は、テレビ放送受信アンテナが受信した放送波を受信し、当該放送波に含まれる放送番組の映像データを記録(録画)する。録画装置100は表示装置200とデジタルインタフェースにより無線/有線接続されており、記録した映像データを表示装置200に出力して当該映像データの映像を表示装置200に表示させる。そして本実施形態に係る録画装置100は、放送番組の映像データの録画に際し、当該放送番組のCM区間前後の区間を好適な位置で区切ることができる。より具体的には、録画装置100は、CM区間の前に放送された内容がCM区間の後にも繰り返し放送されるような場合において、CM前後の区間の内容を好適に判別し、当該放送の映像を録画して再生する場合に、繰り返して放送された部分をスキップできるように好適な位置で区切ることができる。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram showing an example of how the video processing apparatus according to this embodiment is used. The video processing apparatus according to the present embodiment is realized as the recording apparatus 100, for example. The recording device 100 receives a broadcast wave received by a television broadcast receiving antenna and records (records) video data of a broadcast program included in the broadcast wave. The recording device 100 is connected to the display device 200 by wireless / wired via a digital interface, and outputs the recorded video data to the display device 200 to display the video of the video data on the display device 200. The recording apparatus 100 according to the present embodiment can divide sections before and after the CM section of the broadcast program at suitable positions when recording video data of the broadcast program. More specifically, in a case where the content broadcast before the CM section is repeatedly broadcast after the CM section, the recording apparatus 100 preferably determines the contents of the section before and after the CM, When a video is recorded and played back, it can be divided at a suitable position so that a portion broadcast repeatedly can be skipped.

図2は録画装置100及び表示装置200のシステム構成例を示す図である。
録画装置100は、受信部110、分離部120、区間検出部130、字幕類似度検出部140、区切り処理部150、記憶部160、操作受付部170、録画再生制御部180、映像出力部190等を備える。
FIG. 2 is a diagram illustrating a system configuration example of the recording device 100 and the display device 200.
The recording apparatus 100 includes a reception unit 110, a separation unit 120, a section detection unit 130, a caption similarity detection unit 140, a separation processing unit 150, a storage unit 160, an operation reception unit 170, a recording / playback control unit 180, a video output unit 190, and the like. Is provided.

受信部110は、例えばチューナモジュール等であり、デジタルテレビ放送の放送波を受信する。なお放送波には、例えば映像データ(メイン映像)、音声データ及び字幕データ(サブ映像)のストリームが例えばTS(Transport Stream)形式で重畳されている。分離部120は、放送波に重畳された映像データのストリームと字幕映像のストリームとを分離し、メイン映像を区間検出部130に、字幕映像を字幕類似度検出部140に出力する。   The receiving unit 110 is a tuner module, for example, and receives a broadcast wave of digital television broadcasting. Note that, for example, video data (main video), audio data, and subtitle data (sub-video) streams are superimposed on the broadcast wave, for example, in a TS (Transport Stream) format. The separation unit 120 separates the video data stream and the subtitle video stream superimposed on the broadcast wave, and outputs the main video to the section detection unit 130 and the subtitle video to the subtitle similarity detection unit 140.

区間検出部130は、CM検出部131、シーン検出部132、画像類似度検出部133を備える。CM検出部131は、入力された映像データに含まれる任意区間(CM区間)を検出する。ここでCM検出部131は、例えばCM区間と本編との間に存在する無音区間に基づいてCM区間を検出する。即ち、CM区間は15秒の略整数倍の時間長であるため、CM検出部131は、検出した無音区間と無音区間との間の時間が15秒の略整数であるか否かに応じてCM区間を検出する。   The section detection unit 130 includes a CM detection unit 131, a scene detection unit 132, and an image similarity detection unit 133. The CM detection unit 131 detects an arbitrary section (CM section) included in the input video data. Here, the CM detection unit 131 detects the CM section based on, for example, a silent section existing between the CM section and the main part. That is, since the CM section has a time length that is approximately an integral multiple of 15 seconds, the CM detection unit 131 determines whether the time between the detected silence section and the silence section is an approximate integer of 15 seconds. A CM section is detected.

シーン検出部132は、放送番組の映像データの本編区間においてシーンが変わる時間位置(シーンチェンジ位置)を検出し、CM区間前後の本編におけるシーンチェンジ位置と当該CM区間との間の本編シーンを検出する。ここでシーンチェンジ位置の検出は例えば特許文献2に記載の公知技術を用いて行われる。なおシーン検出部132は、必ずしも本編区間の全てに対してシーンチェンジ位置を検出する必要はなく、少なくともCM区間前後の所定時間長に対してシーンチェンジ位置を検出すればよい。   The scene detection unit 132 detects a time position (scene change position) at which the scene changes in the main section of the video data of the broadcast program, and detects a main scene between the scene change position in the main section before and after the CM section and the CM section. To do. Here, the detection of the scene change position is performed using a known technique described in Patent Document 2, for example. The scene detection unit 132 does not necessarily need to detect the scene change position for all the main sections, and may detect the scene change position for a predetermined time length at least before and after the CM section.

画像類似度検出部133は、CM前のシーンにおける映像とCM後のシーンにおける映像との類似度を判別する。ここで画像類似度検出部133は、CM前のシーンの映像とCM後のシーンの映像の両方を複数の分割区間に分割し、夫々の分割区間に識別子を付与する。そして画像類似度検出部133は、CM前の分割区間とCM後の分割区間の映像の類似度を夫々の区間毎に判別する。そして画像類似度検出部133は、CM前の分割区間の映像とCM後の分割区間の映像と全て一致する場合(所定閾値以上の類似度を示す場合)、区切り処理部150に、CM区間前のシーンチェンジ位置とCM区間の終了位置とを通知して、これらの位置で映像を区切るよう指示する。   The image similarity detection unit 133 determines the similarity between the video in the pre-CM scene and the video in the post-CM scene. Here, the image similarity detection unit 133 divides both the video of the scene before CM and the video of the scene after CM into a plurality of divided sections, and assigns an identifier to each divided section. And the image similarity detection part 133 discriminate | determines the similarity of the image | video of the division area before CM and the division area after CM for every area. Then, when all of the video in the segment before the CM and the image in the segment after the CM match (when the similarity is equal to or greater than a predetermined threshold), the image similarity detection unit 133 causes the segment processor 150 to The scene change position and the end position of the CM section are notified, and an instruction is given to divide the video at these positions.

一方画像類似度検出部133は、CM前の分割区間の映像とCM後の分割区間の映像のうち一部が一致し、一部が一致しない場合、当該一致しない分割区間における字幕の類似度検出を字幕類似度検出部140に指示する。なお画像類似度検出部133は、CM前と後とでシーン内の映像が異なっている区間が所定時間長以上である場合、CM開始位置(開始時間)とCM終了位置(終了時間)を区切り処理部150に通知して、これらの位置で区切るよう指示しても良い。なお区間検出部130の詳細な処理については図3を参照して後述する。   On the other hand, the image similarity detection unit 133 detects the similarity of subtitles in the non-matching divided section when a part of the video in the divided section before the CM and a part of the video in the divided section after the CM match. To the subtitle similarity detection unit 140. Note that the image similarity detection unit 133 separates the CM start position (start time) and the CM end position (end time) when the section in which the video in the scene differs before and after the CM is a predetermined time length or more. The processing unit 150 may be notified and instructed to divide at these positions. Detailed processing of the section detection unit 130 will be described later with reference to FIG.

字幕類似度検出部140には、字幕データのストリームが入力される。そして字幕類似度検出部140は、画像類似度検出部133から指示を受けた区間において表示される字幕データの類似度を検出する。即ち、画像類似度検出部133から指定されたCM区間前の分割区間における字幕データと、画像類似度検出部133から指定されたCM区間後の分割区間における字幕データとを比較し、これら字幕データが類似するか否かを判別する。そして字幕類似度検出部140は、これら字幕が類似する場合、区切り処理部150に、CM区間前のシーンチェンジ位置とCM区間の終了位置とで区切るよう指示する。一方字幕が類似しない場合、字幕類似度検出部140は、CM開始位置とCM終了位置とで映像を区切るよう区切り処理部150に指示する。   A caption data stream is input to the caption similarity detection unit 140. Then, the caption similarity detection unit 140 detects the similarity of the caption data displayed in the section received the instruction from the image similarity detection unit 133. That is, the caption data in the divided section before the CM section specified by the image similarity detection unit 133 is compared with the caption data in the divided section after the CM section specified by the image similarity detection unit 133, and these caption data are compared. Whether or not are similar to each other is determined. Then, the subtitle similarity detection unit 140 instructs the delimiter processing unit 150 to delimit the scene change position before the CM section and the end position of the CM section when these subtitles are similar. On the other hand, when the subtitles are not similar, the subtitle similarity detection unit 140 instructs the separation processing unit 150 to divide the video at the CM start position and the CM end position.

なお字幕類似度検出部140には、必ずしもストリームとして字幕データが入力されなくともよく、字幕が埋め込まれた映像データが入力されても良い。そしてこの場合に字幕類似度検出部140は、映像中の字幕の文字を検出して、CM前後で検出した字幕の文字同士の類似度を判別する。   Note that caption data does not necessarily have to be input as a stream to the caption similarity detection unit 140, and video data in which captions are embedded may be input. In this case, the subtitle similarity detection unit 140 detects the subtitle characters in the video and determines the similarity between the subtitle characters detected before and after the CM.

区切り処理部150は、映像データのストリーム及び字幕データのストリームの、区間検出部130及び字幕類似度検出部140からの指示に応じた位置に区切り情報を付与し、プレイリストを生成する。そして区切り処理部150は、作成したプレイリストを記憶部160に出力する。また区切り処理部150は入力された指示に応じた位置でストリームの一部を削除し、削除していない部分を結合させても良い。記憶部160は、例えばHDDやリムーバブルメディア等の記憶媒体であり、受信部110が受信した映像データ、音声データ及び字幕データのストリームが例えばTS形式で入力される(当該ストリームの経路は不図示)。そして記憶部160は、入力されたプレイリストと入力されたTS形式のデータとを対応付けて記憶する。即ち記憶部160は、放送番組の映像データと、当該映像データの区切り情報とを対応付けて記憶する。   The delimiter processing unit 150 adds delimiter information to positions of the video data stream and the subtitle data stream according to instructions from the section detection unit 130 and the subtitle similarity detection unit 140, and generates a playlist. Then, the separation processing unit 150 outputs the created playlist to the storage unit 160. The delimiter processing unit 150 may delete a part of the stream at a position corresponding to the input instruction and combine the parts that are not deleted. The storage unit 160 is, for example, a storage medium such as an HDD or a removable medium, and the video data, audio data, and subtitle data streams received by the receiving unit 110 are input in, for example, the TS format (the stream path is not shown). . The storage unit 160 stores the input playlist and the input data in the TS format in association with each other. That is, the storage unit 160 stores the video data of the broadcast program and the delimiter information of the video data in association with each other.

操作受付部170は、ユーザからの操作入力を受け付ける。ここで操作受付部170は、例えばテレビ放送の何れかのチャンネルの録画を指示する操作入力や、受信部110が受信した何れかのチャンネルの映像を外部機器に出力させる操作入力、記憶部160に録画された映像データの再生を指示する操作入力等を受け付ける。そして操作受付部170は、受け付けた操作入力に応じた通知を録画再生制御部180に行う。   The operation reception unit 170 receives an operation input from the user. Here, the operation accepting unit 170 is, for example, an operation input for instructing recording of any channel of television broadcasting, an operation input for outputting an image of any channel received by the receiving unit 110 to an external device, and the storage unit 160 An operation input for instructing reproduction of recorded video data is received. Then, the operation accepting unit 170 notifies the recording / playback control unit 180 according to the accepted operation input.

録画再生制御部180は、操作受付部170が受け付けた操作入力に応じて、録画処理と再生処理とを実行する。何れかのチャンネルの録画を指示する操作入力を受けた場合に録画再生制御部180は、操作入力に応じたチャンネルを受信部110に受信させ、当該受信させたチャンネルのTSデータを記憶部160に記憶させる。また録画再生制御部180は、放送中の番組の映像データを外部機器に出力させる操作があった場合、当該操作に応じたチャンネルを受信部110に受信させ、受信させた映像データを映像出力部190から外部機器に出力させる。また録画再生制御部180は、録画された映像の再生操作があった場合、記憶部160に記憶された映像を映像出力部190から外部機器に出力させる。なお、映像出力部190から外部機器に映像を出力する際には、出力前に映像や音声のデコードを行ってから出力しても良い。   The recording / playback control unit 180 executes a recording process and a playback process in response to the operation input received by the operation receiving unit 170. When receiving an operation input instructing recording of any channel, the recording / playback control unit 180 causes the receiving unit 110 to receive a channel corresponding to the operation input, and stores the TS data of the received channel in the storage unit 160. Remember. Further, when there is an operation for outputting video data of a program being broadcast to an external device, the recording / playback control unit 180 causes the receiving unit 110 to receive a channel corresponding to the operation, and the received video data is output to the video output unit. Output from 190 to an external device. The recording / playback control unit 180 causes the video output unit 190 to output the video stored in the storage unit 160 to an external device when a recorded video playback operation is performed. Note that when video is output from the video output unit 190 to an external device, video and audio may be decoded before output.

次に表示装置200を説明する。表示装置200は、映像入力部210、映像処理部220等を備える。映像入力部210は録画装置100から送信された映像データを受信する。映像処理部220は、映像入力部210が受信した映像データを表示部230が表示可能な形式の映像信号に変換し、当該映像信号を表示部230に出力する。なお映像処理部220は、映像入力部210が受信した映像データがデコードされていない場合、当該映像データをデコードした後映像信号に変換しても良い。そして表示部230は、入力された映像信号を用いて映像を表示する。   Next, the display device 200 will be described. The display device 200 includes a video input unit 210, a video processing unit 220, and the like. The video input unit 210 receives video data transmitted from the recording device 100. The video processing unit 220 converts the video data received by the video input unit 210 into a video signal in a format that can be displayed by the display unit 230, and outputs the video signal to the display unit 230. If the video data received by the video input unit 210 has not been decoded, the video processing unit 220 may decode the video data and convert it into a video signal. The display unit 230 displays an image using the input image signal.

図3は録画装置100による映像の区切り処理例を示す図である。
まずCM検出部131は、映像データからCM区間を検出して、図3(A)のようにCM区間と本編との境界P1及びP2を検出する。次にシーン検出部132は、CM区間の前の区間のうち境界P1から所定区間長以内にある区間からシーンチェンジ位置P3を検出する。また同様にシーン検出部132は、CM区間の後の区間のうち境界P2から所定区間長以内にある区間からシーンチェンジ位置P4を検出する。
FIG. 3 is a diagram illustrating an example of video segmentation processing by the recording apparatus 100.
First, the CM detection unit 131 detects a CM section from the video data, and detects boundaries P1 and P2 between the CM section and the main part as shown in FIG. Next, the scene detection unit 132 detects the scene change position P3 from a section within a predetermined section length from the boundary P1 in the section before the CM section. Similarly, the scene detection unit 132 detects the scene change position P4 from a section within a predetermined section length from the boundary P2 among sections after the CM section.

そして画像類似度検出部133は、CM区間直前のシーンn2とCM区間直後のシーンn3を、夫々複数のショット(分割区間)に分割し、シーンn2とシーンn3とにおいて夫々同じ位置にある分割区間の類似度を検出する。即ち、ショットm1とショットm4、ショットm2とショットm5、ショットm3とショットm6の映像の類似度を検出する。ここで、図3(C)に示すように、ショットm1とショットm4、及びショットm2とショットm5とが類似し、ショットm3とショットm6とが非類似である場合、録画装置100は図4で後述する字幕の類似度に応じて区切り位置を選択する。   Then, the image similarity detection unit 133 divides the scene n2 immediately before the CM section and the scene n3 immediately after the CM section into a plurality of shots (divided sections), and the divided sections at the same position in the scene n2 and the scene n3, respectively. The similarity of is detected. That is, the similarities between the shots m1 and m4, the shots m2 and m5, and the shots m3 and m6 are detected. Here, as shown in FIG. 3C, when the shot m1 and the shot m4, the shot m2 and the shot m5 are similar, and the shot m3 and the shot m6 are dissimilar, the recording apparatus 100 is shown in FIG. Separation positions are selected according to the similarity of subtitles to be described later.

即ち、ショットm3の映像とショットm6の映像とが非類似であっても、ショットm3の字幕とショットm6の字幕とが類似している場合、録画装置100は、シーンn2とシーンn3とを類似区間であると判別して、位置P9と位置P10とを区切り位置として設定する。そして区切り処理部150は、当該位置P9及びP10にチャプタ等の区切り情報を付与し、映像データに対応付けて記憶部160に記憶させる。なおチャプタとは、映像再生時に映像の再生位置を当該チャプタの位置から次のチャプタの位置までジャンプさせるための区切り情報である。   That is, even if the video of shot m3 and the video of shot m6 are dissimilar, if the subtitle of shot m3 and the subtitle of shot m6 are similar, recording apparatus 100 makes scene n2 and scene n3 similar. It is determined that it is a section, and the position P9 and the position P10 are set as separation positions. Then, the delimiter processing unit 150 assigns delimiter information such as chapters to the positions P9 and P10, and stores them in the storage unit 160 in association with the video data. The chapter is delimiter information for jumping the video playback position from the chapter position to the next chapter position during video playback.

また区切り処理部150は、映像データに区切り情報を付与して対応付ける場合、必ずしも厳密に位置P9及びP10の位置に付与しなくともよく、例えば前後数百msec程度ずれていてもよい。しかしながら、区切り情報の位置をシーンチェンジ点の位置P9に合わせることで、映像再生時にチャプタを利用してジャンプする際に、映像が不自然に途切れることを抑制することができる。   Further, when the delimiter processing unit 150 assigns the delimiter information to the video data and associates them with each other, the delimiter 150 does not necessarily have to strictly apply the positions P9 and P10. For example, the delimiter 150 may be shifted by several hundred msec. However, by matching the position of the delimiter information with the position P9 of the scene change point, it is possible to suppress unnatural interruption of the video when jumping using chapters during video playback.

なお図3(B)において、シーンn2の後端はCMによりカットされているが、シーンn3の後端にはシーンn4が連なるため、場合によってはそもそもシーンn3とシーンn4の間にシーンチェンジ点P4が検出されない場合もある。この場合にシーン検出部132は、まずCM前の区間からシーンチェンジ点P3を検出してシーンn2の区間長(時間長)を検出し、位置P2から当該区間長分後の位置を仮のシーンチェンジ点として検出してもよい。そしてこの場合の以降の処理は図3(C)及び(D)と同様に行われる。   In FIG. 3B, the rear end of the scene n2 is cut by CM, but since the scene n4 is connected to the rear end of the scene n3, the scene change point may be originally set between the scene n3 and the scene n4. In some cases, P4 is not detected. In this case, the scene detection unit 132 first detects the scene change point P3 from the section before the CM, detects the section length (time length) of the scene n2, and sets the position after the section length from the position P2 as a temporary scene. It may be detected as a change point. The subsequent processing in this case is performed in the same manner as in FIGS.

これにより、バラエティー番組やクイズ番組において、CM区間の前と後に、映像が若干異なっていても内容が類似しているもの、例えばCM区間の前では映像の一部にモザイクや帯状の画像が表示され、CM区間の後ではこれらが無いような場合であっても、字幕の類似度に基づいて好適な位置で映像を区切ることができる。   As a result, in variety programs and quiz programs, before and after the CM section, even if the video is slightly different, the content is similar. For example, before the CM section, a mosaic or a strip-shaped image is displayed on a part of the video Even in the case where these are not present after the CM section, the video can be divided at a suitable position based on the similarity of the subtitles.

なお区切り処理部150は、ショットm3の映像とショットm6の映像、及びショットm3の字幕とショットm6の字幕が類似しない場合、シーンn2とシーンn3を非類似区間と判別して区切り情報をCMの開始位置と終了位置に付与しても良い。   If the shot m3 video and the shot m6 video, and the subtitle of the shot m3 and the subtitle of the shot m6 are not similar, the delimiter 150 determines that the scene n2 and the scene n3 are dissimilar sections and sets the delimiter information as CM You may give to a start position and an end position.

図4は、図3(C)に示した夫々のショットの区間において表示される字幕の例を示す図である。
図4(A)に示す例では、ショットm1とショットm4、ショットm2とショットm5、及びショットm3とショットm6の字幕が一致している。このため字幕類似度検出部140は、ショットm1とショットm4、ショットm2とショットm5、及びショットm3とショットm6とが夫々類似区間であると判別し、これらのショットが含まれるシーンn2とシーンn3とが類似区間であると判別する。
FIG. 4 is a diagram showing an example of subtitles displayed in each shot section shown in FIG.
In the example shown in FIG. 4A, the subtitles of shot m1 and shot m4, shot m2 and shot m5, and shot m3 and shot m6 match. Therefore, the caption similarity detection unit 140 determines that the shot m1 and the shot m4, the shot m2 and the shot m5, and the shot m3 and the shot m6 are similar sections, and the scenes n2 and n3 that include these shots. Are determined to be similar sections.

図4(B)に示す例では、CM区間前のショットm3の字幕に「ゴール!2回目は・・・」と表示され、CM区間後のショットm6の字幕に「ゴール!2回目は77点!」と表示される。ここで、CM前の字幕ではCM後の重要シーンの内容を事前にユーザに知られることを防ぐため、例えばクイズの回答やゲームの得点などについて「・・・」などの表記とし、そこでCMに入る、といった手法が使われる場合がある。このため字幕類似度検出部140は、CM前の字幕に「・・・」等の表記がある場合には、字幕の文字のうち当該「・・・」以前の文字に対して、CM後の字幕の文字との比較を行う。   In the example shown in FIG. 4B, “Goal! Second time ...” is displayed in the subtitle of the shot m3 before the CM section, and “Goal! 77 points in the second time of the shot m6 after the CM section. ! "Is displayed. Here, in the subtitles before CM, in order to prevent the contents of important scenes after CM from being known to the user in advance, for example, quiz answers and game scores are indicated with “...” and the like in the CM In some cases, a method of entering is used. Therefore, when the subtitle similarity detection unit 140 has a notation such as “...” In the subtitle before the CM, the subtitle similarity detection unit 140 applies the post-CM post-CM to the characters before the “. Compare with subtitle characters.

そして字幕類似度検出部140は、ショットm2の字幕の「・・・」以前の部分と、ショットm6の「77点!」以前の部分とが一致するため、これらショットの字幕を類似する字幕として判別する。即ち字幕類似度検出部140は、CM前の字幕の先頭から所定文字数分の文字と、CM後の字幕の文字の一部とが一致している場合、これら字幕を類似していると判別する。   Then, the subtitle similarity detection unit 140 matches the subtitles of the shot m2 before “...” And the portions of the shot m6 before “77 points!”. Determine. In other words, the subtitle similarity detection unit 140 determines that the subtitles are similar if the characters for a predetermined number of characters from the head of the subtitles before the CM match a part of the subtitle characters after the CM. .

図4(C)に示す例では、CM区間前のショットm3の字幕に「というわけで、一回目、よーいスタート」と表示され、CM区間後のショットm6の字幕に「一回目、よーいスタート」と表示される。ここで、CM前の字幕の内容が長い場合などにおいて、CM後の字幕ではCM前の字幕の文字列のうち先頭部分を削除したものが表示される場合がある。このため字幕類似度検出部140は、CM前の字幕の文字の後方の一部とCM後の字幕の文字とが一致する場合、これら字幕が類似していると判別する。   In the example shown in FIG. 4C, “That's why, start first” is displayed on the caption of the shot m3 before the CM section, and “First time, OK” is displayed on the caption of the shot m6 after the CM section. “Start” is displayed. Here, when the content of the subtitle before the CM is long, the subtitle after the CM may be displayed by deleting the head portion of the character string of the subtitle before the CM. For this reason, the subtitle similarity detection unit 140 determines that these subtitles are similar when a part of the character behind the subtitle before the CM matches the subtitle character after the CM.

なお、図4(C)や(D)に示したように、CM前の字幕の一部とCM後の字幕の一部とが一致している場合にこれら字幕を類似すると判別すると、一方の字幕の文字列長が著しく短い場合や意味をなさない文字の羅列になっている場合にも類似と判別する恐れがあるため、このような場合には類似と判別しないようにしても良い。   As shown in FIGS. 4C and 4D, when a part of subtitles before CM and a part of subtitles after CM match, if it is determined that these subtitles are similar, If the character string length of the subtitle is remarkably short or the character string is not meaningful, it may be determined to be similar. In such a case, it may not be determined to be similar.

図4(D)に示す例では、CM区間前のショットm3の字幕に「<果たして 斉藤・・・>」、「お願いします!」、及び「(スタッフ)いきまーす」と表示され、CM区間後のショットm6の字幕に「<果たして 斉藤・・・>」、「(スタッフ)いきまーす」、及び「(斉藤)よーし!」と表示される。このように、ショットによっては複数の字幕を含む場合があり、また、その内容がCM前とCM後とで若干異なる場合がある。   In the example shown in FIG. 4D, the subtitles of the shot m3 before the CM section are displayed with “<Surely Saito ...>”, “Please do!” And “(Staff) Ikimasu”. Subtitles of shot m6 after the section are displayed as “<Saily Saito ...>”, “(Staff) Ikimasu”, and “(Saito) Yoshi!”. As described above, some shots may include a plurality of subtitles, and the contents may be slightly different before and after the CM.

そして図4(D)の例では、1番目と4番目、3番目と5番目の文字列が一致しているが、CM前の2番目の字幕はCM後には存在しない。このような場合、CM前のショットに含まれる複数の字幕とCM後のショットに含まれる複数の字幕とについて、夫々一致を判別し、一致数の割合に応じてCM前後のショットが類似するか否か判別してもよい。即ち、図4(D)の例では、ショットm3及びm6に夫々3つの字幕が存在し、2つずつが一致しているため、一致数が4、不一致数が2となり、字幕一致数/総字幕数=4/6=0.67として、この数値が所定の閾値以上であればショットが類似していると判別しても良い。また、図4(D)の例においても、図4(C)や図4(D)のように、字幕の一部が一致していることにより各々の字幕が類似していると判別してもよい。   In the example of FIG. 4D, the first, fourth, third, and fifth character strings match, but the second subtitle before the CM does not exist after the CM. In such a case, a match is determined for each of a plurality of subtitles included in the shot before the CM and a plurality of subtitles included in the shot after the CM, and the shots before and after the CM are similar according to the ratio of the number of matches. It may be determined whether or not. That is, in the example of FIG. 4D, there are three subtitles in each of the shots m3 and m6, and the two match each other, so the number of matches is 4, the number of mismatches is 2, and the number of subtitle matches / total As the number of subtitles = 4/6 = 0.67, it may be determined that the shots are similar if this numerical value is equal to or greater than a predetermined threshold. Also in the example of FIG. 4D, as shown in FIGS. 4C and 4D, it is determined that the subtitles are similar by matching a part of the subtitles. Also good.

図5は録画装置100による区切り処理に係る処理フロー例である。
まず受信部110がテレビ放送番組の映像データを受信すると(S501)、続いてCM検出部131は当該映像データ中におけるCM区間を検出する(S502)。次にシーン検出部132は、CM区間前後の一定長の区間からシーンチェンジ点を検出する(S503)。そして画像類似度検出部133は、CM区間の前の区間及び後の区間を夫々複数の分割区間に分割し、当該分割区間毎に、CM区間の前と後とで映像が一致するか否か(所定の類似度以上であるか否か)を判別する(S504)。
FIG. 5 is an example of a processing flow related to the separation processing by the recording apparatus 100.
First, when the receiving unit 110 receives video data of a television broadcast program (S501), the CM detecting unit 131 detects a CM section in the video data (S502). Next, the scene detection unit 132 detects a scene change point from a certain length section before and after the CM section (S503). Then, the image similarity detection unit 133 divides the previous section and the subsequent section of the CM section into a plurality of divided sections, and whether or not the video matches before and after the CM section for each divided section. It is determined (whether or not it is equal to or higher than a predetermined similarity) (S504).

そして、CM区間の前と後とで全ての分割区間の映像が一致している場合(S505のNo)、区切り処理部150は、映像データの図3(D)における位置P9及び位置P10の位置に区切り情報を対応付けて当該映像データとともに記憶部160に記憶させる(S510)。一方、図3(C)におけるショットm3とショットm6のように、CM区間の前と後とで映像が一致しない分割区間があった場合(S504のYes)、字幕類似度検出部140は、当該映像が一致しない分割区間に対応する時間に表示される字幕の類似度を検出する(S506)。   When the videos in all the divided sections are the same before and after the CM section (No in S505), the separation processing unit 150 determines the positions of the positions P9 and P10 in FIG. 3D of the video data. The delimiter information is associated with and stored in the storage unit 160 together with the video data (S510). On the other hand, when there is a divided section in which the video does not match before and after the CM section as in shot m3 and shot m6 in FIG. 3C (Yes in S504), the caption similarity detection unit 140 The similarity of the caption displayed at the time corresponding to the divided section where the videos do not match is detected (S506).

ここで字幕類似度検出部140は、CM前の分割区間における字幕の文字の一部とCM後の分割区間における字幕の文字の一部とが一致する場合(S507のYes)、CM前後のシーンが類似していると判別する(S509)。なお字幕類似度検出部140は、図4(A)のようにショットm3の字幕の文字の全てとショットm6の字幕の文字の全てとが一致する場合、図4(B)や図4(C)のように字幕の前方/後方の一部が一致している場合、図4(D)のようにCM前のショットに対応する複数の字幕のうち所定数以上の字幕において、字幕に含まれる文字の全てがCM区間の後のショットの字幕に含まれる文字と一致する場合等に、処理をS507のYesのフローに進める。   Here, when the subtitle similarity detection unit 140 matches part of the subtitle characters in the segment before the CM and part of the subtitle characters in the segment after the CM (Yes in S507), the scene before and after the CM Are similar to each other (S509). Note that, when the subtitle similarity detection unit 140 matches all the subtitle characters in the shot m3 and all the subtitle characters in the shot m6 as shown in FIG. ), When a part of the front / back of the subtitles matches, a predetermined number or more of the subtitles corresponding to the shot before the CM are included in the subtitles as shown in FIG. 4D. If all of the characters match the characters included in the caption of the shot after the CM section, the process proceeds to the Yes flow in S507.

そして区切り処理部150は、CM前のシーンチェンジ点とCM区間の終了位置とに区切り情報(チャプタ等)を付与し、映像データとともに記憶部160に記憶させる(S510)。一方S507において、CM前の分割区間における字幕とCM後の分割区間における字幕とが一致しない場合(S507のNo)、区切り処理部150は図3(A)の位置P1及びP2のようにCM区間の開始位置近傍と終了位置近傍に区切り情報(チャプタ等)を付与する(S508)。   The delimiter processing unit 150 adds delimiter information (such as chapters) to the scene change point before the CM and the end position of the CM section, and stores them in the storage unit 160 together with the video data (S510). On the other hand, in S507, when the subtitles in the division section before CM and the subtitles in the division section after CM do not match (No in S507), the delimiter processing unit 150 displays the CM section as in positions P1 and P2 in FIG. Separation information (such as chapters) is assigned to the vicinity of the start position and the vicinity of the end position (S508).

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

100…録画装置、110…受信部、120…分離部、130…区間検出部、131…CM検出部、132…シーン検出部、133…画像類似度検出部、140…字幕類似度検出部、150…区切り処理部、160…記憶部、170…操作受付部、180…録画再生制御部、190…映像出力部、200…表示装置、210…映像入力部、220…映像処理部、230…表示部   DESCRIPTION OF SYMBOLS 100 ... Recording apparatus 110 ... Receiving part 120 ... Separation part 130 ... Section detection part 131 ... CM detection part 132 ... Scene detection part 133 ... Image similarity detection part 140 ... Subtitle similarity detection part 150 ... Delimiter processing unit, 160 ... Storage unit, 170 ... Operation receiving unit, 180 ... Recording / playback control unit, 190 ... Video output unit, 200 ... Display device, 210 ... Video input unit, 220 ... Video processing unit, 230 ... Display unit

Claims (8)

放送番組の映像データを受信する受信手段と、
受信された映像データからCM区間を検出するCM検出手段と、
検出された前記CM区間の前の第1区間と後の第2区間の映像が異なる場合であって、前記第1区間に対応する字幕の文字の一部と、前記第2区間に対応する字幕の文字の一部とが一致する場合、前記映像データの前記第1区間の先頭近傍の第1位置と前記CM区間の後端近傍の第2位置に区切り情報を対応付けて前記映像データとともに記憶媒体に記憶させる記憶手段と
を備える映像処理装置。
Receiving means for receiving video data of a broadcast program;
CM detecting means for detecting a CM section from received video data;
The detected video of the first section before the CM section and the second section after the detected CM section are different, and a part of the subtitle character corresponding to the first section and the subtitle corresponding to the second section When a part of the character matches, the delimiter information is stored in association with the video data in association with the first position near the beginning of the first section of the video data and the second position near the rear end of the CM section. A video processing apparatus comprising storage means for storing in a medium.
前記区切り情報は、前記映像データが再生される場合に、前記第1位置から前記第2位置にジャンプさせるための設定情報を含む、請求項1記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the delimiter information includes setting information for causing a jump from the first position to the second position when the video data is reproduced. 検出された前記CM区間の前の区間における第1シーンチェンジ点を検出するシーン検出手段を更に備え、
前記第1区間は、前記第1シーンチェンジ点と前記CM区間との間にある区間である、請求項1記載の映像処理装置。
A scene detecting means for detecting a first scene change point in a section before the detected CM section;
The video processing apparatus according to claim 1, wherein the first section is a section between the first scene change point and the CM section.
前記第1の区間は、前記第1シーンチェンジ点と前記CM区間との間にある区間のうち、前記CM区間の後の区間に一致する映像が含まれない区間である、請求項3記載の映像処理装置。   The first section according to claim 3, wherein the first section is a section that does not include an image that matches a section after the CM section among sections between the first scene change point and the CM section. Video processing device. 前記記憶手段は、前記第1区間に対応する字幕の文字の全てと、前記第2区間に対応する字幕の文字の全てとが一致する場合に、前記映像データに前記区切り情報を対応付けて前記記憶媒体に記憶させる、請求項1記載の映像処理装置。   The storage means associates the delimiter information with the video data when all of the subtitle characters corresponding to the first section and all of the subtitle characters corresponding to the second section match. The video processing apparatus according to claim 1, wherein the video processing apparatus is stored in a storage medium. 前記記憶手段は、前記第1の区間および前記第2の区間の夫々に複数の字幕が対応する場合には、前記第1の区間に対応する複数の字幕のうち所定数以上の字幕において、字幕に含まれる文字の一部が前記第2区間の字幕に含まれる文字と一致する場合に、前記映像データに前記区切り情報を対応付けて前記記憶媒体に記憶させる、請求項1記載の映像処理装置。   In the case where a plurality of subtitles correspond to each of the first section and the second section, the storage means includes subtitles in a predetermined number or more of subtitles corresponding to the first section. 2. The video processing device according to claim 1, wherein when a part of characters included in the text matches a character included in the subtitles of the second section, the video data is stored in the storage medium in association with the video data. . 前記記憶手段は、前記第1の区間および前記第2の区間の夫々に複数の字幕が対応する場合には、前記第1の区間に対応する複数の字幕のうち所定数以上の字幕において、字幕に含まれる文字の全てが前記第2区間の字幕に含まれる文字と一致する場合に、前記映像データに前記区切り情報を対応付けて前記記憶媒体に記憶させる、請求項1記載の映像処理装置。   In the case where a plurality of subtitles correspond to each of the first section and the second section, the storage means includes subtitles in a predetermined number or more of subtitles corresponding to the first section. The video processing apparatus according to claim 1, wherein when all of the characters included in the text match the characters included in the subtitles of the second section, the video data is stored in the storage medium in association with the delimiter information. 映像を処理する装置における映像処理方法であって、
放送番組の映像データを受信することと、
受信された映像データからCM区間を検出することと、
検出された前記CM区間の前の第1区間と後の第2区間の映像が異なる場合であって、前記第1区間に対応する字幕の文字の一部と、前記第2区間に対応する字幕の文字の一部とが一致する場合、前記映像データの前記第1区間の先頭近傍の第1位置と前記CM区間の後端近傍の第2位置に区切り情報を対応付けて前記映像データとともに記憶媒体に記憶させることと
を備える映像処理方法。
A video processing method in an apparatus for processing video,
Receiving broadcast program video data;
Detecting a CM section from received video data;
The detected video of the first section before the CM section and the second section after the detected CM section are different, and a part of the subtitle character corresponding to the first section and the subtitle corresponding to the second section When a part of the character matches, the delimiter information is stored in association with the video data in association with the first position near the beginning of the first section of the video data and the second position near the rear end of the CM section. A video processing method comprising: storing the information in a medium.
JP2011167745A 2011-07-29 2011-07-29 Video processor and video processing method Withdrawn JP2013030259A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011167745A JP2013030259A (en) 2011-07-29 2011-07-29 Video processor and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011167745A JP2013030259A (en) 2011-07-29 2011-07-29 Video processor and video processing method

Publications (1)

Publication Number Publication Date
JP2013030259A true JP2013030259A (en) 2013-02-07

Family

ID=47787133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011167745A Withdrawn JP2013030259A (en) 2011-07-29 2011-07-29 Video processor and video processing method

Country Status (1)

Country Link
JP (1) JP2013030259A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021118072A1 (en) * 2019-12-13 2021-06-17 주식회사 코난테크놀로지 Method and device for detecting significant section by using audio and video information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021118072A1 (en) * 2019-12-13 2021-06-17 주식회사 코난테크놀로지 Method and device for detecting significant section by using audio and video information
KR102267403B1 (en) * 2019-12-13 2021-06-22 주식회사 코난테크놀로지 Apparatus or Method for Detecting Meaningful Intervals using voice and video information
KR20210075924A (en) * 2019-12-13 2021-06-23 주식회사 코난테크놀로지 Apparatus or Method for Detecting Meaningful Intervals using voice and video information
KR102343407B1 (en) 2019-12-13 2021-12-27 주식회사 코난테크놀로지 Apparatus or Method for Detecting Meaningful Intervals using voice and video information

Similar Documents

Publication Publication Date Title
US8279343B2 (en) Summary content generation device and computer program
US9215496B1 (en) Determining the location of a point of interest in a media stream that includes caption data
US20060070106A1 (en) Method, apparatus and program for recording and playing back content data, method, apparatus and program for playing back content data, and method, apparatus and program for recording content data
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
US20070154176A1 (en) Navigating recorded video using captioning, dialogue and sound effects
US7149365B2 (en) Image information summary apparatus, image information summary method and image information summary processing program
KR20070001240A (en) Method and apparatus to catch up with a running broadcast or stored content
JP4435130B2 (en) Video playback device, playback device
US20080303943A1 (en) Digest generation for television broadcast program
JP2006025422A (en) Method and apparatus for navigating through subtitle of audio video data stream
JP2007511948A (en) Trick play signal playback
JP2009004872A (en) One-segment broadcast receiver, one-segment broadcast receiving method and medium recording one-segment broadcast receiving program
US20100278517A1 (en) Video decoding device
JP2006115052A (en) Content retrieval device and its input device, content retrieval system, content retrieval method, program and recording medium
JP2016103714A (en) Video recording and reproducing device
JP2002077820A (en) Accumulating/reproducing device and digital broadcast transmitting device
JP2013030259A (en) Video processor and video processing method
JP5033653B2 (en) Video recording / reproducing apparatus and video reproducing apparatus
US20090116816A1 (en) Chaptering method and apparatus for movie data
JP2006332765A (en) Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium
JP2016116098A (en) Video recording and reproducing device
JP2008134825A (en) Information processor, information processing method and program
JP6290046B2 (en) Video apparatus and video apparatus control method
JP5682167B2 (en) Video / audio recording / reproducing apparatus and video / audio recording / reproducing method
JP4941128B2 (en) Video processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140614

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007