JP2006324771A - Video signal delimiter information setting method and apparatus judged from audio and video signal - Google Patents

Video signal delimiter information setting method and apparatus judged from audio and video signal Download PDF

Info

Publication number
JP2006324771A
JP2006324771A JP2005144191A JP2005144191A JP2006324771A JP 2006324771 A JP2006324771 A JP 2006324771A JP 2005144191 A JP2005144191 A JP 2005144191A JP 2005144191 A JP2005144191 A JP 2005144191A JP 2006324771 A JP2006324771 A JP 2006324771A
Authority
JP
Japan
Prior art keywords
delimiter information
silent
information
video signal
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005144191A
Other languages
Japanese (ja)
Other versions
JP4373962B2 (en
Inventor
Yuji Takao
祐治 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005144191A priority Critical patent/JP4373962B2/en
Priority to US11/434,865 priority patent/US7764862B2/en
Publication of JP2006324771A publication Critical patent/JP2006324771A/en
Application granted granted Critical
Publication of JP4373962B2 publication Critical patent/JP4373962B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of setting a proper chapter dividing point even when a plurality of scene changes exist in an optional (CM) segment and a plurality of audio modes are intermingled in a program. <P>SOLUTION: A delimiter information setting apparatus includes a video structural processing section 11p that analyzes the similarity between consecutive frames of a video signal to obtain first delimiter information providing delimination according to semantic contents of the video signal, and an optional segment detection processing section 11q of an audio signal. Then second delimiter information is generated in a silence part of the audio signal to set an optional segment, and third delimiter information is obtained by overlapping the first and second delimiter information items. In this case, when the first delimiter information exists in the optional segment, the first delimiter information is not adopted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、映像構造化を得るために、音声と映像信号から判定した映像信号の区切り情報設定を行う方法及び装置に関するものである。つまり音声信号及び映像信号のそれぞれの特徴を捕らえて、例えばチャプター分割して映像を構造化する場合に利用される方法及び装置である。   The present invention relates to a method and apparatus for setting delimiter information of video signals determined from audio and video signals in order to obtain video structuring. That is, it is a method and apparatus used when capturing the characteristics of each of the audio signal and the video signal and structuring the video by, for example, chapter division.

テレビジョン放送信号では、通常は、プログラムの境界、あるいはプログラムの途中においてコマーシャル(CM)タイムが設けられている。このCM部の候補区間を、音声モードから検出する装置がある(例えば特許文献1)。また、音声モードとは関係なく、無音期間を検出し、この無音期間中の所定位置に区切り情報を設定する装置がある(例えば特許文献2)。無音期間が例えば15秒離れて存在したときは、CM期間と判定するのである。また映像情報の変化点を検出してチャプター分割点を設定する技術もある。
特開2000−354225公報 特開2003−047031公報
In a television broadcast signal, a commercial (CM) time is usually provided at a program boundary or in the middle of a program. There is an apparatus that detects a candidate section of the CM section from a voice mode (for example, Patent Document 1). In addition, there is a device that detects a silence period regardless of the sound mode and sets delimiter information at a predetermined position during the silence period (for example, Patent Document 2). When the silent period exists, for example, 15 seconds away, the CM period is determined. There is also a technique for detecting a change point of video information and setting a chapter division point.
JP 2000-354225 A JP 2003-047031 A

上記従来の技術おいて、映像信号のみの解析情報からチャプター分割点を設定すると、CM区間、とくに複数のスポンサーのCMが連続して放送されるような区間では、CM区間の中にチャプター分割点を生じてしまうことがある。   In the above conventional technique, when the chapter division point is set from the analysis information of only the video signal, the chapter division point is included in the CM section, particularly in the section where a plurality of sponsor CMs are broadcast continuously. May occur.

また、音声モード(ステレオモード)のときをCM期間であると判定した場合、CM期間以外の本編にもステレオモードの音声がある場合、またステレオとモノラルが混在したような場合、正確にCM期間のみを識別できなくなる。また、上記の無音期間を検出して、区切り情報を生成する装置では、無音の検出精度に左右される。   Also, if it is determined that the audio mode (stereo mode) is the CM period, if the main volume other than the CM period includes audio in the stereo mode, or if stereo and monaural are mixed, the CM period is accurate. It becomes impossible to identify only. In addition, in the device that detects the silent period and generates the delimiter information, the accuracy depends on the silent detection.

そこでこの発明は、任意(CM)区間の中に複数のシーン変化があった場合、および番組の中に複数の音声モードが混在したとしても、任意(CM)区間にチャプター分割をつけることがなく、また本編に対する適切な区切り情報を得ることができる、音声と映像信号から判定した映像信号の区切り情報設定方法及び装置を提供することを目的とする。   Therefore, according to the present invention, even when there are a plurality of scene changes in an arbitrary (CM) section, and even if a plurality of audio modes are mixed in a program, chapter division is not added to the arbitrary (CM) section. It is another object of the present invention to provide a method and apparatus for setting delimiter information for video signals determined from audio and video signals, which can obtain appropriate delimiter information for the main part.

この発明では、映像信号の連続するフレーム間の類似度を解析して映像信号の意味内容に応じて区切った第1の区切り情報を得る装置において、音声信号を解析する制御部を有し、この制御部が、音声信号の無音部を検出するとともに、無音部と次の無音部との時間間隔と検出した無音部のカウント数とが所定条件を満足する区間を検出し、最初と最後の無音部に対して第2の区切り情報を生成し、前記第1と第2の区切り情報を重ねて第3の区切り情報を得るとともに、前記最初と最後の無音部に対して与えた第2の区切り情報の間に、前記第1の区切り情報が存在する場合には、この第1の区切り情報は非採用とするようにしている。   In the present invention, the apparatus for analyzing the similarity between consecutive frames of the video signal and obtaining the first delimiter information divided according to the semantic content of the video signal has a control unit for analyzing the audio signal, The control unit detects a silent part of the audio signal, detects a section in which the time interval between the silent part and the next silent part and the detected silent part count number satisfy a predetermined condition, and detects the first and last silent parts. Second delimiter information is generated for the part, the first delimiter information and the second delimiter information are overlapped to obtain third delimiter information, and the second delimiter given to the first and last silent sections When the first delimiter information exists between information, the first delimiter information is not adopted.

上記のように、区切り情報(チャプター分割点)を映像信号に設定するに際して、複数の解析情報(音声信号と映像信号の解析情報)から最終的な区切り情報を得ることにより、番組の中に複数の類似シーンが混在したとしても、本編に対する適切な区切り情報を設定することができる。   As described above, when setting the delimiter information (chapter division point) to the video signal, the final delimiter information is obtained from the plurality of analysis information (analysis information of the audio signal and the video signal), thereby including a plurality of delimiters in the program. Even if similar scenes are mixed, appropriate delimiter information for the main part can be set.

以下、図面を参照してこの発明に係る実施の形態を説明する。図1はこの発明が適用された信号処理装置の構成例である。この信号処理装置は、例えばデジタルテレビジョン受信装置、あるいは情報記録再生装置などに適用可能である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration example of a signal processing apparatus to which the present invention is applied. This signal processing apparatus can be applied to, for example, a digital television receiving apparatus or an information recording / reproducing apparatus.

チューナ1は、例えばデジタル放送信号を受信し、受信信号を復調し、復調出力をトランスポートデコーダ2に供給する。トランスポートデコーダ2で選択された番組の映像信号・音声信号はパケット毎オーディオビデオ(AV)デコーダ3に入力されて復調される。AVデコーダ3で復調された音声出力は、出力端子4Aに出力され、映像出力は、出力端子4Pに出力される。出力端子4Pの映像信号には、合成回路5にて、オンスクリーンディスプレイ(OSD)コントローラ6からの映像信号が合成される場合もある。   The tuner 1 receives, for example, a digital broadcast signal, demodulates the received signal, and supplies a demodulated output to the transport decoder 2. The video signal / audio signal of the program selected by the transport decoder 2 is input to a per-packet audio video (AV) decoder 3 and demodulated. The audio output demodulated by the AV decoder 3 is output to the output terminal 4A, and the video output is output to the output terminal 4P. The video signal from the on-screen display (OSD) controller 6 may be synthesized with the video signal at the output terminal 4P by the synthesis circuit 5.

ダイレクトRDRAM7は、AVデコーダ3、或いはOSDコントローラ6からのデータを一時的に格納するために利用される。SDRAM8は、例えば受信信号のエラー訂正処理などを行うときに、一時的にデータを格納する場合に利用される。例えば、EEPROM9は、装置の機能を実行するプログラムあるいはパラメータなどを保存しておくために利用される。   The direct RDRAM 7 is used for temporarily storing data from the AV decoder 3 or the OSD controller 6. The SDRAM 8 is used for temporarily storing data, for example, when performing error correction processing of a received signal. For example, the EEPROM 9 is used to store programs or parameters for executing the functions of the apparatus.

10は、メインバスであり、上記のトランスポートデコーダ2、AVデコーダ3、OSDコントローラ6、SDRAM8、EEPROM9などに接続されている。そしてメインバス10には、装置を統括する制御部であるCPU11が接続されている。さらにこの装置は、バス10を介して外部機器と接続することが可能である。このためにメインバス10には、モデムインターフェース12a,LAN端子12b、ブルーツースインターフェース12c、リモコンインターフェース12d、ATAPIインターフェース12eが接続されている。インターフェース12eを介してハードディスクドライブ13を接続することも可能である。またメインバス10には、AVエンコーダ14が接続されており、映像信号を記録媒体に記録する所定のフォーマット(例えばDVD規格)に変換することができる。   Reference numeral 10 denotes a main bus, which is connected to the transport decoder 2, AV decoder 3, OSD controller 6, SDRAM 8, EEPROM 9, and the like. The main bus 10 is connected to a CPU 11 that is a control unit that controls the apparatus. Furthermore, this apparatus can be connected to an external device via the bus 10. For this purpose, a modem interface 12a, a LAN terminal 12b, a Bluetooth interface 12c, a remote control interface 12d, and an ATAPI interface 12e are connected to the main bus 10. It is also possible to connect the hard disk drive 13 via the interface 12e. An AV encoder 14 is connected to the main bus 10 and can convert a video signal into a predetermined format (for example, DVD standard) recorded on a recording medium.

ここでCPU11内部には、映像構造化処理部11p(マジックチャプター分割機能と称してもよい)と、任意区間検出処理部11q(本編自動チャプター分割機能と称してもよい)およびチャプター境界設定処理部11rが設けられている。   Here, in the CPU 11, an image structuring processing unit 11p (may be referred to as a magic chapter division function), an arbitrary section detection processing unit 11q (may be referred to as a main chapter automatic chapter division function), and a chapter boundary setting processing unit. 11r is provided.

映像構造化処理部11pは、後述するように、映像信号の連続するフレーム間の類似度を解析して映像信号の意味内容に応じて区切った第1の区切り情報を得ることができる。この第1の区切り情報(チャプター分割点)は、チャプター境界設定処理部11rに入力される。また任意区間検出処理部11qは、音声信号の無音部を検出し、無音部と次の無音部との時間間隔が一定時間(A)の倍数であるかどうかを判定する。そして、時間間隔が一定時間(A)の倍数であれば、無音部の検出をカウントし、前記無音部のカウント数が閾値(B)個以上あれば、最初と最後の無音部に対して第2の区切り情報(任意区間情報又は音声区間情報又はCM区間情報)を取得することができる。この第2の区切り情報も、チャプター境界設定処理部11rに入力される。チャプター境界設定処理部11rは、第2の区切り情報で設定された任意区間内に、第1の区切り情報が存在する場合には、この第1の区切り情報を非採用とする。   As will be described later, the video structuring processing unit 11p can analyze the similarity between consecutive frames of the video signal and obtain first delimiter information divided according to the semantic content of the video signal. The first delimiter information (chapter division point) is input to the chapter boundary setting processing unit 11r. The arbitrary section detection processing unit 11q detects a silent part of the audio signal and determines whether or not the time interval between the silent part and the next silent part is a multiple of a certain time (A). If the time interval is a multiple of a certain time (A), the detection of silent parts is counted. If the number of silent parts is equal to or greater than the threshold (B), the first and last silent parts are counted. 2 delimiter information (arbitrary section information, voice section information, or CM section information) can be acquired. This second delimiter information is also input to the chapter boundary setting processing unit 11r. The chapter boundary setting processing unit 11r does not adopt the first delimiter information when the first delimiter information is present in an arbitrary section set by the second delimiter information.

任意区間検出処理部11qは、無音検出装置25を含む。無音検出装置25は、所定時間音声レベルが閾値以下の部分を無音部として検出する。このとき無音検出装置25は、無音情報を出力し、無音時刻記録装置26に供給する。つまり無音部時刻記録装置26は、番組における無音部情報(無音部が判定された時刻の情報)を蓄積している。無音時刻記録装置26に記録された無音時刻情報は、無音部間隔計算装置27にて処理される。無音部間隔計算装置27は、さらにブロック化すると無音部と次の無音部との時間間隔が一定時間(A)の倍数であるかどうかを判定する無音部時間間隔計測部27aと、時間間隔が一定時間(A)の倍数であれば、無音部の検出をカウントする無音部カウント処理部27bと、無音部のカウント数が閾値(B)個以上あれば、最初と最後に現れた無音部に対して、区切り情報を設定する無音部の条件判定部27cとを含む。   The arbitrary section detection processing unit 11q includes a silence detection device 25. The silence detection device 25 detects a portion where the sound level is below a threshold for a predetermined time as a silence portion. At this time, the silence detection device 25 outputs silence information and supplies it to the silence time recording device 26. That is, the silent part time recording device 26 accumulates silent part information (information of the time when the silent part is determined) in the program. The silent time information recorded in the silent time recording device 26 is processed by the silent part interval calculating device 27. When the silent part interval calculation device 27 is further blocked, the silent part time interval measuring unit 27a that determines whether or not the time interval between the silent part and the next silent part is a multiple of a certain time (A), and the time interval If it is a multiple of a certain time (A), the silent part count processing unit 27b that counts the detection of the silent part, and if the silent part count number is equal to or greater than the threshold (B), the silent part that appears first and last On the other hand, it includes a silence condition determination unit 27c for setting delimiter information.

図2には、説明を分かりやすくするために、上記の装置の特徴部の代表的な構成要素を取り出して示している。したがって、図1の構成要素に対応する部分には、同一符号を付して示している。チューナ11で受信され復調された映像信号(ここでは音声信号も含む)は、映像構造化処理部11p、任意区間検出処理部11qに入力される。そしてそれぞれの処理部で得られた第1の区切り情報(構造化情報と称してよい)と、第2の区切り情報(任意区間情報と称してもよい)は、チャプター境界設定処理部11rに入力される。ここでチャプター境界設定部11rは、第1と第2の区切り情報を重ねた第3の区切り情報を得る。但し、所定の条件に当てはまるチャプター分割点は、不採用とし、採用されたチャプター分割点を記録装置13の管理情報に挿入する。   In FIG. 2, for easy understanding of the description, representative components of the characteristic portion of the above-described apparatus are extracted and shown. Therefore, the parts corresponding to the components in FIG. The video signal (including the audio signal here) received and demodulated by the tuner 11 is input to the video structuring processing unit 11p and the arbitrary section detection processing unit 11q. The first delimiter information (which may be referred to as structured information) and the second delimiter information (which may be referred to as arbitrary section information) obtained by the respective processing units are input to the chapter boundary setting processing unit 11r. Is done. Here, the chapter boundary setting unit 11r obtains third delimiter information obtained by superimposing the first and second delimiter information. However, a chapter division point that satisfies a predetermined condition is not adopted, and the adopted chapter division point is inserted into the management information of the recording device 13.

図3は上記の装置の要部の動作例を説明するために示している。今番組の時間方向に対して、映像構造化処理部11pにより、c1、c2、…、c5のようにチャプター分割点(第1の区切り情報)が検出されたとする。一方、同じ番組の時間方向に対して、任意区間検出処理部11qは、第2の区切り情報m1、m2、m3、m4を検出し、任意区間をm1とm2の間、とm3とm4の間に設定しているものとする。   FIG. 3 shows an operation example of the main part of the above apparatus. Assume that chapter division points (first delimiter information) such as c1, c2,..., C5 are detected by the video structuring processing unit 11p in the time direction of the current program. On the other hand, in the time direction of the same program, the arbitrary section detection processing unit 11q detects the second delimiter information m1, m2, m3, and m4, and the arbitrary section is between m1 and m2, and between m3 and m4. It is assumed that

すると任意区間(m1−m2)に、映像構造化処理部11pにより検出された区切り情報c3が存在する。このような場合、本装置では、この区切り情報c3を否採用とするのである。これにより、チャプター分割点が、任意区間内(例えばステレオを音声が連続するような区間)に付加されることがない。任意の区間とは、例えば音声モードが変化せず連続している区間、あるいは、ステレオモードが連続している区間などである。さらには、所定帯域内の音声周波数が連続しているような区間である。   Then, delimiter information c3 detected by the video structuring processing unit 11p exists in an arbitrary section (m1-m2). In such a case, this apparatus rejects this delimiter information c3. As a result, chapter division points are not added within an arbitrary section (for example, a section where stereo audio is continuous). The arbitrary section is, for example, a section where the audio mode is continuous without changing, or a section where the stereo mode is continuous. Furthermore, it is a section where audio frequencies within a predetermined band are continuous.

図4は、さらにこの発明の別の実施の形態である。図3の例と異なる部分は、任意区間検出処理部11qがCM区間検出用として用いられたときの例である。この場合も例えばm1−m2の区間と、m3−m4の区間がCM区間として検出されたものとする。そして、CM区間(m1−m2)に、映像構造化処理部11pにより検出された区切り情報c3が存在するものとする。このような場合、本装置では、この区切り情報c3を否採用とするのである。これにより、CM区間内にチャプター分割点が設定されることがない。   FIG. 4 shows still another embodiment of the present invention. A different part from the example of FIG. 3 is an example when the arbitrary section detection processing unit 11q is used for CM section detection. Also in this case, for example, it is assumed that a section of m1-m2 and a section of m3-m4 are detected as CM sections. It is assumed that the delimiter information c3 detected by the video structuring processing unit 11p exists in the CM section (m1-m2). In such a case, this apparatus rejects this delimiter information c3. As a result, chapter division points are not set in the CM section.

図5は、さらにこの発明の別の実施の形態である。図3、図4の例と異なる部分は、第1の区切り情報を一旦保存する保存装置11r1と、第2の区切り情報を一旦保存する保存装置11r2が設けられている。そして、チャプター境界設定処理部11rは、保存装置11r1と、11r2からの第1の区切り情報(例えばチャプター分割点となる転換点情報)と、第2の区切り情報(例えばCM区間情報)を用いて、チャプター分割点を生成している。この場合もCM区間(m1−m2)に存在する区切り情報c3は、否採用とする。   FIG. 5 shows still another embodiment of the present invention. 3 and 4 are provided with a storage device 11r1 for temporarily storing the first delimiter information and a storage device 11r2 for temporarily storing the second delimiter information. Then, the chapter boundary setting processing unit 11r uses the storage device 11r1, the first delimiter information from 11r2 (for example, turning point information to be chapter division points), and the second delimiter information (for example, CM section information). , Generating chapter division points. Also in this case, the delimiter information c3 existing in the CM section (m1-m2) is not adopted.

このように保存装置11r1、11r2を有した場合、映像情報が記録媒体から再生されたときにチャプター分割点を設定できる。図3、図4の例であると、リアルタイムで区切り情報を検出して、番組ごとにチャプター分割点を設定する必要があった。しかし、図5の例であると、番組を一旦記録媒体に記録したのち、その後、所望の番組に対してチャプター分割点を設定できるという操作も可能となる。   When the storage devices 11r1 and 11r2 are provided as described above, chapter division points can be set when video information is reproduced from a recording medium. In the example of FIGS. 3 and 4, it is necessary to detect the delimiter information in real time and set the chapter division point for each program. However, in the example of FIG. 5, after the program is once recorded on the recording medium, an operation can be performed in which the chapter division point can be set for the desired program.

図6には、この発明の装置のさらに他の実施の形態を示している。図3、図4の例と異なる部分は、任意区間検出処理部11qが音楽区間検出用として用いられたときの例である。この場合も例えばm1−m2の区間と、m3−m4の区間が音楽区間として検出されたものとする。そして、音楽区間(m1−m2)に、映像構造化処理部11pにより検出された区切り情報c3が存在するものとする。このような場合、本装置では、この区切り情報c3を否採用とするのである。これにより、音楽区間内にチャプター分割点が設定されることがない。   FIG. 6 shows still another embodiment of the apparatus of the present invention. A different part from the example of FIG. 3, FIG. 4 is an example when the arbitrary area detection process part 11q is used for a music area detection. Also in this case, for example, it is assumed that a section of m1-m2 and a section of m3-m4 are detected as music sections. It is assumed that the delimiter information c3 detected by the video structuring processing unit 11p exists in the music section (m1-m2). In such a case, this apparatus rejects this delimiter information c3. As a result, chapter division points are not set in the music section.

図7には、この発明の装置の要部の動作を説明するためのフローチャートを示している。処理がスタートすると、映像構造化処理部11pにより、映像信号の解析を行い、例えば場面の変換点を検出し、チャプター分割点として一旦メモリに登録する(ステップSE1)。次に、任意区間検出処理部1111qにより、音声信号を解析して任意区間を検出し、任意区間情報を一旦メモリに登録する(ステップSE2)。次に、チャプター分割点(例えば場面の転換点)が検出されているかどうかを判定する(ステップSE3)。チャプター分割点(例えば場面の転換点)が検出されていない場合には、終了するが、チャプター分割点が検出されているときは、次のステップに移行する。次に、図3−図6で各種例を説明したように、任意区間内に、分割点が存在した場合は、この分割点を無視して、他の分割点をチャプター境界として設定する(ステップSE4、SE5)。   FIG. 7 shows a flowchart for explaining the operation of the main part of the apparatus of the present invention. When the process starts, the video structuring processing unit 11p analyzes the video signal, detects, for example, a scene conversion point, and temporarily registers it as a chapter division point in the memory (step SE1). Next, the arbitrary section detection processing unit 1111q analyzes the voice signal to detect the arbitrary section, and temporarily registers the arbitrary section information in the memory (step SE2). Next, it is determined whether a chapter division point (for example, a scene turning point) has been detected (step SE3). If a chapter division point (for example, a turning point of a scene) is not detected, the process ends. If a chapter division point is detected, the process proceeds to the next step. Next, as described in various examples in FIGS. 3 to 6, when there is a division point in an arbitrary section, this division point is ignored and another division point is set as a chapter boundary (step SE4, SE5).

図8、図9は、上記した映像構造化処理部11pの代表的な動作例を説明するために示している。ここでの処理は、例えば「マジックチャプター分割」による処理と称される。この機能は、主として映像データを分析し、フィールド或いはフレーム画像の類似度を判定する。そして、カット検出、類似ショットの判定、対話度数の算出などを行い、チャプター境界を決定する方法である。ここではカット点とカット点との間をショットと称している。   8 and 9 are shown for explaining a typical operation example of the video structuring processing unit 11p. The processing here is called, for example, processing by “magic chapter division”. This function mainly analyzes video data and determines the similarity of field or frame images. Then, a chapter boundary is determined by performing cut detection, determination of similar shots, calculation of interaction frequency, and the like. Here, the area between the cut points is called a shot.

上記の「カット検出」とは、IピクチャフレームとIピクチャフレーム(もしくは0.5秒ごとのフレーム)を比較し、画面全体の色相が大きく異なるか、輝度変化が大きい領域が予め設定しているパラメータより多い場合は、フレームは非類似と判定する。この非類似と定めた点を転換点と称してもよい。   The above-mentioned “cut detection” compares an I picture frame with an I picture frame (or a frame every 0.5 seconds), and an area in which the hue of the entire screen is greatly different or a luminance change is large is set in advance. If there are more parameters, the frame is determined to be dissimilar. The point determined as dissimilar may be referred to as a turning point.

そして、0.5秒離れたフレーム同士を順次比較しで、非類似のフレームの組の数が、閾値以上の区間があった場合には、この区間の任意の点にカット点を設定する方法である。図8には、矢印で示すフレーム相互間の類似性を判定している様子を示している。そして、非類似のフレームの組が多数存在している部分で、カット点を設定した様子を示している。fn、fn−1,fn−2,…、fe、fe−1,fe−2,…、は、フレームである。   Then, by sequentially comparing frames that are 0.5 seconds apart, and there is a section in which the number of sets of dissimilar frames is equal to or greater than a threshold, a method of setting a cut point at an arbitrary point in this section It is. FIG. 8 shows a state in which the similarity between frames indicated by arrows is determined. And, it shows a state in which cut points are set in a portion where there are many sets of dissimilar frames. fn, fn-1, fn-2,..., fe, fe-1, fe-2,.

上記の「類似ショット検出」とは、過去のカット点からさかもどった数フレームと、直近のカット点から後の数フレームとの総当りでフレーム間の類似判定を行う。図9は、総当りの様子を示している。そして、「類似」と判断したフレームの組の数が閾値以上の場合、双方のショットは、類似であると判定するものである。つまり、図9に示すように、カット点の前のショットAとカット点の後のショットD間のフレームが類似しているかどうかを判定する。図の例であると、類似判定は、例えば丸印の数分得られることになる。   In the above-mentioned “similar shot detection”, similarity determination between frames is performed based on the round-robin of several frames backed by past cut points and several frames after the latest cut points. FIG. 9 shows a brute force state. When the number of sets of frames determined to be “similar” is equal to or greater than the threshold value, both shots are determined to be similar. That is, as shown in FIG. 9, it is determined whether the frames between the shot A before the cut point and the shot D after the cut point are similar. In the example of the figure, the similarity determination is obtained for the number of circles, for example.

「対話検出」と「対話度数」は、次のように定義されている。(a)類似ショットが集中的に登場する区間(部分)は、意味のある区間である。(b)類似ショットがどれくらいの密度で出現するかを数値化するために「対話度数」という指標を導入している。「対話度数」は、以下の条件を満たすほど大きくなる。(b1)ショットが多くふくまれている(=カット点が頻繁に現れる)。(b2)対話に貢献している(=類似している)ショットの個数が多い。(b3)対話に貢献している(=類似している)ショットの合計時間が長い。   “Interaction detection” and “interaction frequency” are defined as follows. (A) A section (part) where similar shots appear intensively is a meaningful section. (B) In order to quantify how densely similar shots appear, an index called “interaction frequency” is introduced. The “interaction frequency” increases as the following conditions are satisfied. (B1) A lot of shots are included (= cut points appear frequently). (B2) The number of shots contributing to the conversation (= similar) is large. (B3) The total time of the shots contributing to the dialogue (= similar) is long.

上記の(c)対話度数をもとに、対話区間を算出する。そして(d)近接した対話区間は接続する。   Based on the above (c) dialogue frequency, a dialogue interval is calculated. Then, (d) adjacent dialog sections are connected.

「マジックチャプター分割」機能は、基本的に上記の処理により実行される。カット点を設定し、類似ショットを検出する場合は、上記の処理で足りる場合がある。しかし、複数の番組構造を再構築する機能を追加するには、さらに以下のような機能を含んでもよい。   The “magic chapter division” function is basically executed by the above processing. When a cut point is set and a similar shot is detected, the above processing may be sufficient. However, in order to add a function for reconstructing a plurality of program structures, the following functions may be included.

即ち、「ニュース番組固有処理」機能、「その他の番組処理」機能である。「ニュース番組固有処理」機能、話題先頭ショット検出を行うもので、番組内にある程度分布し、ある程度長く、ある回数以上出現する類似ショットを「話題の先頭ショット」と仮定する。そして「話題の先頭ショット」が連続している場合、連続の最後のショットを真の「話題の先頭ショット」、それ以外を「前の話題のフォローアップ」と判定するのである。「その他の番組処理」機能は、「コーナータイトル検出」機能を設定している。この機能は番組内に広く分布し、対話区間に属さず、ある回数以上出現する類似ショットを「コーナータイトル」であると判定する。また、番組開始後しばらくたってもコーナータイトルが現れない場合は、「コーナータイトルを持たない番組」とみなすのである。   That is, a “news program specific process” function and an “other program process” function. A “news program unique process” function and topic top shot detection are performed. It is assumed that a similar shot that is distributed to some extent in the program, appears to a certain extent, and appears more than a certain number of times is a “topic top shot”. If the “topic top shot” is continuous, the last shot in the series is determined to be the true “topic top shot”, and the others are determined to be “follow-up on the previous topic”. In the “other program processing” function, a “corner title detection” function is set. This function determines that similar shots that are widely distributed in the program, do not belong to the dialogue section, and appear more than a certain number of times are “corner titles”. If a corner title does not appear even after a while after the program starts, it is regarded as a “program without a corner title”.

上記のように、番組のカット点の情報、類似ショットの情報、ニュース番組の話題先頭の情報、その他の番組のコーナータイトルの情報が得られると、番組を編集する場合、あるいは、番組のチャプターを構築する場合に、有効な情報として利用可能となる。   As described above, when information on the cut point of a program, information on similar shots, information on the topic head of a news program, and information on corner titles of other programs are obtained, when editing a program, or When it is constructed, it can be used as effective information.

図10−図14は、上述した任意区間検出処理部11qの具体例を説明するために示した図である。   10 to 14 are diagrams for explaining a specific example of the above-described arbitrary section detection processing unit 11q.

図10において、放送信号は、チューナ21にて受信される。チューナ21からは、選局されたチャンネルの番組の映像・音声信号が出力される。音声信号は、音声信号処理部22にて復調・復号処理される。音声信号処理部22の出力は、エンコーダ部23及び後述する無音検出装置25に供給される。   In FIG. 10, the broadcast signal is received by the tuner 21. The tuner 21 outputs video / audio signals of the program of the selected channel. The audio signal is demodulated and decoded by the audio signal processing unit 22. The output of the audio signal processing unit 22 is supplied to an encoder unit 23 and a silence detection device 25 described later.

エンコーダ部23は、DVD規格に基づき映像信号、音声信号を所定のフォーマットにエンコードし、その出力をデータ処理部24に供給する。データ処理部24は、ハードディスク或いはDVD−R,あるいはDVD−RW,あるいはDVD−RAMに対して、情報を変調して記録することができる。また上記のディスクから読み出した情報を復調処理することができる。またエラー訂正コード(ECC)に関する処理機能も含む。   The encoder unit 23 encodes the video signal and the audio signal in a predetermined format based on the DVD standard, and supplies the output to the data processing unit 24. The data processing unit 24 can modulate and record information on a hard disk, a DVD-R, a DVD-RW, or a DVD-RAM. In addition, the information read from the disk can be demodulated. It also includes processing functions related to error correction codes (ECC).

音声信号処理部22の出力は、さらに無音検出装置25にも供給される。無音検出装置25は、所定時間音声レベルが閾値以下の部分を無音部として検出する。このとき無音検出装置25は、無音情報を出力し、無音時刻記録装置26に供給する。つまり無音部時刻記録装置26は、番組における無音部情報(無音部が判定された時刻の情報)を蓄積している。   The output of the audio signal processing unit 22 is further supplied to the silence detection device 25. The silence detection device 25 detects a portion where the sound level is below a threshold for a predetermined time as a silence portion. At this time, the silence detection device 25 outputs silence information and supplies it to the silence time recording device 26. That is, the silent part time recording device 26 accumulates silent part information (information of the time when the silent part is determined) in the program.

無音時刻記録装置26に記録された無音時刻情報は、無音部間隔計算装置27にて利用される。ここでは無音部と次の無音部との時間間隔が一定時間(A)の倍数であるかどうかを判定している。そして、時間間隔が一定時間(A)の倍数であれば、無音部をカウントし、無音部のカウント数が閾値(B)個以上あれば、最初と最後に現れた無音部に対して、チャプター区切り情報を設定するために、最初をCM開始情報、最後をCM終了情報として、チャプター境界設定装置28に供給する。   The silent time information recorded in the silent time recording device 26 is used by the silent portion interval calculating device 27. Here, it is determined whether or not the time interval between the silent portion and the next silent portion is a multiple of a certain time (A). If the time interval is a multiple of the fixed time (A), the silent part is counted, and if the silent part count is equal to or greater than the threshold (B), the first and last silent parts are In order to set delimiter information, the first part is supplied to the chapter boundary setting device 28 as CM start information and the last as CM end information.

これにより、チャプター境界設定装置28は、チャプター情報を生成して、データ処理部24に供給する。データ処理部24は、チャプター情報をDVD規格のマネジメント情報内のエントリーポイントに変換して管理する。   As a result, the chapter boundary setting device 28 generates chapter information and supplies it to the data processing unit 24. The data processing unit 24 converts chapter information into entry points in the DVD standard management information and manages them.

なお、映像情報に関しては、映像信号処理部29にて処理され、エンコーダ部23に入力され、所定のDVD規格のデータに変換されている。そして、エンコーダ部23の出力が、データ処理部24を介して、光ディスク101に記録される。   The video information is processed by the video signal processing unit 29, input to the encoder unit 23, and converted into data of a predetermined DVD standard. Then, the output of the encoder unit 23 is recorded on the optical disc 101 via the data processing unit 24.

ここで、上記の無音部間隔計算装置27は、さらにブロック化すると無音部と次の無音部との時間間隔が一定時間(A)の倍数であるかどうかを判定する無音部時間間隔計測部27aと、時間間隔が一定時間(A)の倍数であれば、無音部の検出をカウントする無音部カウント処理部27bと、無音部のカウント数が閾値(B)個以上あれば、最初と最後に現れた無音部に対して、区切り情報を設定する無音部の条件判定部27cとを含む。   Here, when the silent part interval calculation device 27 is further blocked, the silent part time interval measuring unit 27a that determines whether or not the time interval between the silent part and the next silent part is a multiple of a predetermined time (A). If the time interval is a multiple of a certain time (A), the silent part count processing unit 27b that counts the detection of the silent part, and if the silent part count is equal to or greater than the threshold (B), the first and last A silent part condition determination unit 27c for setting delimiter information is included for the silent part that appears.

図11には、上記の無音検出装置25、無音時刻記憶装置26、無音部間隔計算装置27、チャプター境界設定装置28により、無音部が検出された時間、チャプター境界設定のためにチャプター情報が得られた時刻を時間軸上で示している。説明を分かりやすくするために、単純化して説明する。この図は、例えば1つの番組中(例えば録画予約した番組)の中で、2回のコマーシャル期間があった例である。   In FIG. 11, the silent information is obtained by the silent detection device 25, the silent time storage device 26, the silent portion interval calculation device 27, and the chapter boundary setting device 28 for setting the time when the silent portion is detected and the chapter boundary. The given time is shown on the time axis. In order to make the explanation easy to understand, the explanation will be simplified. This figure is an example in which there are two commercial periods in one program (for example, a program reserved for recording).

そして、第1回目のコマーシャル期間にCM1,CM2,CM3,CM4の4つのコマーシャルが放送され、第2回目のコマーシャル期間にCM5、CM2,CM3の3つのコマーシャルが放送された例を示している。 In the example, four commercials CM1, CM2, CM3, and CM4 are broadcast during the first commercial period, and three commercials CM5, CM2, and CM3 are broadcast during the second commercial period.

例えば第1回目のコマーシャル期間を見ると、各コマーシャルの区切り部では、無音期間があるために、無音部検出フラグが得られる。しかしCM4の後は、後述する条件を満足していないために、CM4の終了がチャプター境界位置として判定されている。また最初のCM1のスタート直前の無音部検出フラグの位置がチャプター境界として設定されている。つまり、コマーシャル期間の前後にチャプター境界を示すフラグが得られることになる。同様に、第2回目のコマーシャル期間においても無音部の全てにチャプター境界が設定されるのではなく、所定条件を満足する(連続して放送される)複数のCMをグループ化し、グループを1つの単位として、チャプター境界を設定している。   For example, when the first commercial period is viewed, a silent part detection flag is obtained because there is a silent period at each commercial break. However, after CM4, since the conditions described later are not satisfied, the end of CM4 is determined as the chapter boundary position. The position of the silent part detection flag immediately before the start of the first CM1 is set as the chapter boundary. That is, a flag indicating a chapter boundary is obtained before and after the commercial period. Similarly, in the second commercial period, a chapter boundary is not set for all silent parts, but a plurality of CMs satisfying a predetermined condition (successively broadcast) are grouped, The chapter boundary is set as the unit.

図12には、上述した処理を行うステップを大きなブロックで示している。1つの番組に対するチャプター設定処理が終了しているかどうかを判定し(ステップSA1)、終了していなければ、無音部を検出するために無音検出処理を行う(ステップSA2)。無音部が検出されると、先の説明のように無音部を検出した時間が記憶される(ステップSA3)。番組の終わりに管理情報を処理するとき、図2で説明したように、チャプター境界が管理情報内のエントリーポイントとして設定される。   In FIG. 12, the steps for performing the above-described processing are shown in large blocks. It is determined whether or not the chapter setting process for one program has been completed (step SA1). If it has not been completed, a silence detection process is performed in order to detect a silent part (step SA2). When the silent part is detected, the time when the silent part is detected is stored as described above (step SA3). When the management information is processed at the end of the program, a chapter boundary is set as an entry point in the management information as described in FIG.

図13は、コマーシャル期間にて、無音部が次々と検出されたときに、CM開始点のチャプター境界と、CM終了点のチャプター境界を決定するときの様子を示すフローチャートである。処理がスタートすると、まず、無音部を検出したときに、無音部の順番を示す情報としてiを用いる。最初の無音部が検出されると、i←1とし、CMカウント値(cm_count)は、cm_count←0とし、最後の無音部の時刻(last_silent)をlast_silent←0とし、検出した無音部の時刻(silent)もsilent←0とする(ステップSB1)。   FIG. 13 is a flowchart showing a state in which the chapter boundary at the CM start point and the chapter boundary at the CM end point are determined when silent portions are successively detected in the commercial period. When the process starts, first, when a silent part is detected, i is used as information indicating the order of the silent part. When the first silent part is detected, i ← 1, CM count value (cm_count) is set to cm_count ← 0, the last silent part time (last_silent) is set to last_silent ← 0, and the detected silent part time ( (silent) is also set to <← 0 (step SB1).

無音部を検出したとき、無音部の個数がiよりも小さい場合には、前回の時刻(silent)を、last_silent←silentとし、今回の時刻(silent)を、i番目の無音部の時刻とする(ステップSB2、SB3)。次に(silent)−(last_silent)の計算を行い、この値が15秒の倍数であるかどうかを判定する。コマーシャルは15秒単位あるいはその倍数の単位で放送されることが多いからである。   When the number of silent parts is smaller than i when the silent part is detected, the previous time (silent) is set to last_silent ← silent, and the current time (silent) is set to the time of the i-th silent part. (Steps SB2, SB3). Next, (silent) − (last_silent) is calculated, and it is determined whether or not this value is a multiple of 15 seconds. This is because commercials are often broadcast in units of 15 seconds or multiples thereof.

15秒(値A)もしくはその倍数であれば、cm_count=0かどうかを判定する(ステップSB5)。0のときは、コマーシャルカウントが開始された直後である。i−1がコマーシャルの開始時刻に相当するため、ステップSB6にて、start←i−1とする。   If it is 15 seconds (value A) or a multiple thereof, it is determined whether cm_count = 0 (step SB5). When it is 0, it is immediately after the commercial count is started. Since i-1 corresponds to the commercial start time, start ← i-1 is set in step SB6.

ステップSB5でcm_count≠0の場合は、すでにコマーシャル期間がスタートしていることであり、ステップSB7に進みcm_countに+1を行う。ステップSB7の後は、(i+1)の処理を行い(ステップSB8)、ステップSB2に戻る。   If cm_count ≠ 0 in step SB5, this means that the commercial period has already started, and the process proceeds to step SB7 where +1 is added to cm_count. After step SB7, the process (i + 1) is performed (step SB8), and the process returns to step SB2.

先のステップSB4において、(silent)−(last_silent)の計算結果が、15秒(値A)の倍数でない場合には、コマーシャル期間でないものと見なす。このときはステップSB9に進み、これまで蓄積しているcm_countがcm_count>閾値(B)を満足するかどうかを判断する。満足する場合には、複数のコマーシャルグループが放送されたものと判断し、このときのスタート(strat)と累積加算された現在のiが得られた時点をCM開始点、CM終了点として、チャプター境界設定装置に報告される(ステップSB10)。この後は、cm_count=0、i=0にセットする。   In the previous step SB4, when the calculation result of (silent) − (last_silent) is not a multiple of 15 seconds (value A), it is regarded as not being a commercial period. At this time, the process proceeds to step SB9, where it is determined whether cm_count accumulated so far satisfies cm_count> threshold (B). If satisfied, it is determined that a plurality of commercial groups have been broadcast, and the current i obtained by accumulating the start (strat) at this time is obtained as the CM start point and CM end point. This is reported to the boundary setting device (step SB10). Thereafter, cm_count = 0 and i = 0 are set.

なお、一定時間(値A)は、可変可能としてもよい。値Aを可変するには、特殊設定用のユーザ案内メニューを用意して可変できるようにする。また閾値(B)は、一定のマージンを持たせてもよい。   Note that the fixed time (value A) may be variable. In order to change the value A, a user guidance menu for special setting is prepared and can be changed. The threshold (B) may have a certain margin.

図14は、チャプター境界設定装置28における動作である。CMの開始点の情報、及び終了点の情報を取得して(ステップSC1)、チャプター境界を設定(ステップSC2)する手順を示している。   FIG. 14 shows the operation in the chapter boundary setting device 28. This shows a procedure for acquiring information on the start point and end point of CM (step SC1) and setting a chapter boundary (step SC2).

上記したようにこの発明の方法及び装置によると、コマーシャル放送期間において、無音部を検出し、全ての位置をチャプター境界とするのではなく、連続した複数のコマーシャル(連続コマーシャルグループ)の開始位置と終了位置を検出している。   As described above, according to the method and apparatus of the present invention, in the commercial broadcasting period, a silent part is detected, and not all positions are set as chapter boundaries, but the start positions of a plurality of continuous commercials (continuous commercial groups) The end position is detected.

ユーザは、選択により上記の機能の動作オン、動作オフを設定することができる。この場合、ユーザは、番組予約時の画面で詳細設定ボタンを選択し、詳細設定画面を見ながら、動作オン、オフを選択することができる。   The user can set operation on and operation off of the above function by selection. In this case, the user can select the detail setting button on the screen at the time of program reservation, and can select operation on / off while viewing the detail setting screen.

図15は、1つの番組を録画予約するときに、予約画面の「詳細設定」ボタンを選択し、クリックしたときに現れる詳細設定画面60の例である。図に示すように、「本編自動チャプター分割」の項目60aが「入」になっている。この状態であると、先に説明したチャプター分割動作が得られることを意味する。リモコン操作によりカーソルを項目60aに合わせて、決定キーを押すことで、「入」、「切」をサイクリックに切り替えることができる。   FIG. 15 shows an example of a detailed setting screen 60 that appears when a “detailed setting” button on the reservation screen is selected and clicked when a recording reservation is made for one program. As shown in the figure, the “main part automatic chapter division” item 60 a is “ON”. This state means that the chapter division operation described above can be obtained. “On” and “Off” can be switched cyclically by moving the cursor to the item 60 a by remote control operation and pressing the enter key.

さらにこの画面60には、映像信号の構造解析チャプター分割である「マジックチャプター分割」という項目60bが設けられている。この「構造解析チャプター分割」による機能と、上述した「本編自動チャプター分割」による機能(CM期間検出が正確)とは、チャプター分割処理が異なる。   Further, the screen 60 is provided with an item 60b called “magic chapter division” which is a structure analysis chapter division of the video signal. The function based on the “structure analysis chapter division” and the function based on the “main chapter automatic chapter division” described above (CM period detection is accurate) are different in chapter division processing.

先に説明した(図8、図9)ように「構造解析チャプター分割」による機能は、主として映像データを分析し、フィールド或いはフレーム画像の類似度を判定する。方法である。本編自動チャプター分割機能では、録画予約画面から詳細設定ボタンをクリックしたときに現れる画面60−1上で、「構造解析チャプター分割」という項目60bが現れた例を示した。しかし、「構造解析チャプター分割」を設定するための項目60bは、メニュー画面から録画機器を選択し、次に、録画機能を設定する画面上でも現れる。   As described above (FIGS. 8 and 9), the function based on “structure analysis chapter division” mainly analyzes video data and determines the similarity of a field or a frame image. Is the method. In the main chapter automatic chapter division function, an example is shown in which the item 60b “Structural analysis chapter division” appears on the screen 60-1 that appears when the detailed setting button is clicked from the recording reservation screen. However, the item 60b for setting “Structural analysis chapter division” appears on the screen for selecting the recording device from the menu screen and then setting the recording function.

図16には、「構造解析チャプター分割」という項目60bが録画機能を設定する画面60−2上で現れた例を示している。この画面でも「構造解析チャプター分割」を行うのか否かを設定するための項目60bが現れている。   FIG. 16 shows an example in which an item 60b “Structural analysis chapter division” appears on the screen 60-2 for setting the recording function. Also on this screen, an item 60b for setting whether or not to perform “structural analysis chapter division” appears.

上述した画面60−1,60−2において、リモートコントローラの操作部のマークが表示されている。つまり上下方向、左右方向へカーソル移動するためのカーソルキーのマークと、決定キーのマークとが表示されている。これは、ユーザの操作を案内するのに有効なマークである。   On the screens 60-1 and 60-2 described above, the mark of the operation unit of the remote controller is displayed. That is, a cursor key mark for moving the cursor in the vertical direction and the horizontal direction and a determination key mark are displayed. This is an effective mark for guiding the user's operation.

上記した任意区間検出処理部11qの処理方法は、上記の実施形態に限定されるものではない。さらに音声モードを検出し、音声モード情報を追加して利用するようにしてもよい。例えば音声モードの変化点を検出して、この変化点の検出情報も利用するのである。   The processing method of the arbitrary section detection processing unit 11q described above is not limited to the above embodiment. Furthermore, the voice mode may be detected and the voice mode information may be added and used. For example, the change point of the voice mode is detected, and the detection information of the change point is also used.

例えば本編の大半がステレオモードであると判定した場合には、図10から図14で説明した方式を採用し、本編には、ステレオモードとモノラルモードが混在していることが判定された場合には、音声モード変化点の情報も利用し、モード変化点をチャプター分割点に加えるようにしてもよい。但し、上記した任意区間内のチャプター分割点は無視される。   For example, when it is determined that most of the main part is in the stereo mode, the method described with reference to FIGS. 10 to 14 is adopted, and when it is determined that the main part has a mixture of the stereo mode and the monaural mode. May also use the information of the voice mode change point and add the mode change point to the chapter division point. However, the chapter division points in the above arbitrary section are ignored.

図17はこの発明が適用された記録再生装置の全体構成を示す図である。この記録再生装置は、2種類のディスクドライブ部を有する。光ディスク101は、ビデオファイルを構築できる情報記録媒体である。ディスクドライブ部102は、光ディスク101を回転駆動し、情報の読み書きを実行する。104はハードディスクを駆動するハードディスクドライブ(HDD)部である。   FIG. 17 is a diagram showing the overall configuration of a recording / reproducing apparatus to which the present invention is applied. This recording / reproducing apparatus has two types of disk drive units. The optical disc 101 is an information recording medium that can construct a video file. The disk drive unit 102 rotates and drives the optical disk 101 to read / write information. A hard disk drive (HDD) unit 104 drives the hard disk.

データプロセッサ部103は、ディスクドライブ部102及びハードディスクドライブ部104に記録データを供給することができ、また、再生された信号を受け取ることができる。ディスクドライブ部102は、光ディスク101に対する回転制御系、レーザ駆動系、光学系などを有する。   The data processor unit 103 can supply recording data to the disk drive unit 102 and the hard disk drive unit 104, and can receive a reproduced signal. The disk drive unit 102 includes a rotation control system, a laser drive system, an optical system, and the like for the optical disk 101.

データプロセッサ部103は、記録または再生単位のデータを取り扱うもので、バッファ回路、変調・復調回路、エラー訂正部などを含む。   The data processor unit 103 handles data in recording or reproduction units, and includes a buffer circuit, a modulation / demodulation circuit, an error correction unit, and the like.

この記録再生装置は、録画側を構成するエンコーダ部200と、再生側を構成するデコーダ部300と、装置本体の動作を統括して制御するマイクロコンピュータブロック400とを主たる構成要素としている。エンコーダ部200は、入力されたアナログビデオ信号やアナログオーディオ信号をデジタル化するビデオ用及びオーディオ用のアナログデジタルコンバータと、ビデオエンコーダと、オーディオエンコーダとを有する。さらに、映画の字幕などを圧縮する副映像エンコーダも含む。   This recording / reproducing apparatus mainly includes an encoder unit 200 constituting the recording side, a decoder unit 300 constituting the reproducing side, and a microcomputer block 400 that controls the operation of the apparatus main body. The encoder unit 200 includes a video and audio analog-to-digital converter that digitizes an input analog video signal or analog audio signal, a video encoder, and an audio encoder. Further, it includes a sub-picture encoder that compresses subtitles of movies.

エンコーダ部200の出力は、バッファメモリ203を含むフォーマッタ204にて所定のDVD(DVD−R,DVD−RW,DVD−RAM、など)フォーマットに変換され、先のデータプロセッサ部103に供給される。エンコーダ部200には、AV入力部211から外部アナログビデオ信号と外部アナログオーディオ信号、あるいはTVチューナ212からアナログビデオ信号とアナログオーディオ信号が入力される。なお、エンコーダ部200は、圧縮されたデジタルビデオ信号やデジタルオーディオ信号が直接入力されるときは、圧縮デジタルビデオ信号やデジタルオーディオ信号を直接フォーマッタ204に供給することもできる。またエンコーダ部200は、アナログデジタル変換されたデジタルビデオ信号及びオーディオ信号を、ビデオミキシング部305及びオーディオセレクタ301にそれぞれ直接供給することもできる。   The output of the encoder unit 200 is converted into a predetermined DVD (DVD-R, DVD-RW, DVD-RAM, etc.) format by a formatter 204 including a buffer memory 203 and supplied to the data processor unit 103. The encoder unit 200 receives an external analog video signal and an external analog audio signal from the AV input unit 211, or an analog video signal and an analog audio signal from the TV tuner 212. Note that the encoder unit 200 can also directly supply the compressed digital video signal or digital audio signal to the formatter 204 when a compressed digital video signal or digital audio signal is directly input. The encoder unit 200 can also directly supply the digital video signal and the audio signal that have been subjected to analog-digital conversion to the video mixing unit 305 and the audio selector 301, respectively.

エンコーダ部200に含まれるビデオエンコーダでは、デジタルビデオ信号はMPEG2またはMPEG1規格に基づいた可変ビットレートで圧縮されたデジタルビデオ信号に変換される。オーディオ信号は、MPEGまたはAC−3規格に基づいて固定ビットレートで圧縮されたデジタルオーディオ信号、あるいはリニアPCMのデジタルオーディオ信号に変換される。   In the video encoder included in the encoder unit 200, the digital video signal is converted into a digital video signal compressed at a variable bit rate based on the MPEG2 or MPEG1 standard. The audio signal is converted into a digital audio signal compressed at a fixed bit rate based on the MPEG or AC-3 standard, or a linear PCM digital audio signal.

副映像信号がAV入力部211から入力された場合(例えば副映像信号の独立出力端子付DVDビデオプレーヤからの信号など)、あるいはこのようなデータ構成のDVDビデオ信号が放送されてそれがTVチューナ212で受信された場合は、DVDビデオ信号中の副映像信号が副映像エンコーダでエンコード(ランレングス符号化)されて副映像のビットマップとなる。   When a sub-video signal is input from the AV input unit 211 (for example, a signal from a DVD video player with an independent output terminal of the sub-video signal), or a DVD video signal having such a data structure is broadcast and is used as a TV tuner. When received at 212, the sub-video signal in the DVD video signal is encoded (run-length encoded) by the sub-video encoder to become a sub-picture bitmap.

エンコードされたデジタルビデオ信号、デジタルオーディオ信号、副映像データは、フォーマッタ204にてパック化され、ビデオパック、オーディオパック、副映像パックとなり、さらにこれらが集合されてDVD−レコーディング規格(例えばDVD−RAM、DVD−R、DVD−RWなどに記録する規格)で規定されたフォーマットに変換される。   The encoded digital video signal, digital audio signal, and sub-picture data are packed by the formatter 204 to become a video pack, an audio pack, and a sub-picture pack, and these are assembled to form a DVD-recording standard (for example, DVD-RAM). , DVD-R, DVD-RW, etc.).

ここでこの装置は、フォーマッタ204でフォーマット化された情報(ビデオ、オーディオ、副映像データなどのパック)及び作成された管理情報を、データプロセッサ部103を介してハードディスクドライブ部104あるいはデータディスクドライブ部102に供給し、ハードディスクあるいは光ディスク101に記録することができる。またハードディスクあるいは光ディスクに記録された情報を、データプロセッサ部103、ディスクドライブ部102を介して光ディスク101あるいはハードディスクに記録することもできる。   Here, this apparatus uses the data processor unit 103 to send information (packets of video, audio, sub-picture data, etc.) formatted by the formatter 204 and the created management information to the hard disk drive unit 104 or the data disk drive unit. 102, and can be recorded on the hard disk or the optical disc 101. Further, information recorded on the hard disk or the optical disk can be recorded on the optical disk 101 or the hard disk via the data processor unit 103 and the disk drive unit 102.

またハードディスクあるいは光ディスク101に記録されている複数番組のビデオオブジェクトを、一部削除したり、異なる番組のオブジェクトをつなげたり、といった編集処理を行うこともできる。これは、DVDフォーマットが取り扱うデータ単位を定義し、このデータ単位で信号処理することで編集を容易にしているからである。   It is also possible to perform an editing process such as deleting a part of video objects of a plurality of programs recorded on the hard disk or the optical disc 101 or connecting objects of different programs. This is because editing is facilitated by defining a data unit handled by the DVD format and performing signal processing in this data unit.

マイクロコンピュータブロック400は、MPU(マイクロプロセッシングユニット)、またはCPU(セントラルプロセッシングユニット)と、制御プログラム等が書きこまれたROMと、プログラム実行に必要なワークエリアを提供するためのRAMとを含んでいる。   The microcomputer block 400 includes an MPU (micro processing unit) or CPU (central processing unit), a ROM in which a control program and the like are written, and a RAM for providing a work area necessary for executing the program. Yes.

マイクロコンピュータブロック400のMPUは、そのROMに格納された制御プログラムに従い、RAMをワークエリアとして用いて、欠陥場所検出、未記録領域検出、録画情報記録位置設定、UDF記録、AVアドレス設定などを実行する。   The MPU of the microcomputer block 400 executes defect location detection, unrecorded area detection, recording information recording position setting, UDF recording, AV address setting, etc. using the RAM as a work area according to the control program stored in the ROM. To do.

またマイクロコンピュータブロック400は、システム全体を制御するために必要な情報処理部を有するもので、ワークRAM、ディレクトリ検出部、VMG(全体のビデオ管理情報)情報作成部、コピー関連情報検知部、コピー及びスクランブリング情報処理部(RDI処理部)、パケットヘッダ処理部、シーケンスヘッダ処理部、アスペクト比情報処理部などを備える。   The microcomputer block 400 includes an information processing unit necessary for controlling the entire system, and includes a work RAM, a directory detection unit, a VMG (total video management information) information creation unit, a copy-related information detection unit, and a copy. And a scrambling information processing unit (RDI processing unit), a packet header processing unit, a sequence header processing unit, an aspect ratio information processing unit, and the like.

MPUの実行結果のうち、ユーザに通知すべき内容は、映像データ記録再生装置の表示部402に表示されるか、またはモニターディスプレイにOSD(オンスクリーンディスプレイ)表示される。またマイクロコンピュータブロック400は、この装置を操作するための操作信号を与えるキー入力部401を有する。マイクロコンピュータブロック400が、ディスクドライブ部102、ハードディスクドライブ部104、データプロセッサ部103、エンコーダ部200及び/またはデコーダ部300などを制御するタイミングは、STC(システムタイムクロック)403からの時間データに基づいて実行することができる。   Among the execution results of the MPU, the contents to be notified to the user are displayed on the display unit 402 of the video data recording / reproducing apparatus or displayed on the monitor display as OSD (on-screen display). The microcomputer block 400 has a key input unit 401 that gives an operation signal for operating the apparatus. The timing at which the microcomputer block 400 controls the disk drive unit 102, the hard disk drive unit 104, the data processor unit 103, the encoder unit 200, and / or the decoder unit 300 is based on time data from an STC (system time clock) 403. Can be executed.

録画や再生の動作は、通常はSTC403からのタイムクロックに同期して実行されるが、それ以外の処理はSTC403とは独立したタイミングで実行されてもよい。   Recording and playback operations are normally executed in synchronization with the time clock from the STC 403, but other processing may be executed at a timing independent of the STC 403.

デコーダ部300は、パック構造を持つDVDフォーマットの信号から各パックを分離して取り出すセパレータと、パック分離やその他の信号処理実行時に使用するメモリと、セパレータで分離された主映像データ(ビデオパックの内容)をデコードするVデコーダと、セパレータで分離された副映像データ(副映像パックの内容)をデコードするSPデコーダと、セパレータで分離されたオーディオデータ(オーディオパックの内容)をデコードするAデコーダとを有する。またデコードされた主映像にデコードされた副映像を適宜合成し、主映像にメニュー、ハイライトボタン、字幕やその他の副映像を重ねて出力するビデオプロセッサを備えている。   The decoder unit 300 separates and extracts each pack from a DVD format signal having a pack structure, a memory used when pack separation or other signal processing is performed, and main video data (video pack) separated by the separator. A V decoder that decodes the content), an SP decoder that decodes the sub-picture data separated by the separator (the contents of the sub-picture pack), and an A decoder that decodes the audio data separated by the separator (the contents of the audio pack) Have A video processor is also provided that appropriately synthesizes the decoded sub-video with the decoded main video and outputs the main video with a menu, a highlight button, subtitles, and other sub-videos.

デコーダ部300の出力ビデオ信号は、ビデオミキシング部305に入力される。ビデオミキシング部305では、テキストデータの合成が行われる。またビデオミキシング部305には、TVチューナ212やA/V入力部211からの信号を直接取り込むラインもまた接続されている。ビデオミキシング部305には、バッファとして用いるフレームメモリ306が接続されている。ビデオミキシング部305の出力がアナログ出力の場合はI/F(インターフェース)307を介して外部出力され、デジタル出力の場合はデジタルアナログ変換器308を介して外部へ出力される。   The output video signal of the decoder unit 300 is input to the video mixing unit 305. In the video mixing unit 305, text data is synthesized. The video mixing unit 305 is also connected to a line that directly takes in signals from the TV tuner 212 and the A / V input unit 211. A frame memory 306 used as a buffer is connected to the video mixing unit 305. When the output of the video mixing unit 305 is an analog output, it is output to the outside via an I / F (interface) 307, and when it is a digital output, it is output to the outside via a digital / analog converter 308.

また、ビデオミキシング部305は、GUIとしての案内画面(図6、図9にて説明した画面)を作るための画像信号を出力することができる。この画像信号は、マイクロコンピュータブロック400内の案内画面処理制御部により制御されている。さらに、操作入力判定部40a,録画予約制御部40b、編集処理制御部40c、案内画面処理制御部40dなども設けられており、制御部400は、装置の全体を統括することができる。   The video mixing unit 305 can output an image signal for creating a GUI guide screen (the screen described with reference to FIGS. 6 and 9). This image signal is controlled by a guide screen processing control unit in the microcomputer block 400. Furthermore, an operation input determination unit 40a, a recording reservation control unit 40b, an edit processing control unit 40c, a guidance screen processing control unit 40d, and the like are also provided, and the control unit 400 can control the entire apparatus.

またマイクロコンピュータブロック400では、上記した「本編自動チャプター分割」を行うための制御ブロック40e、「マジックチャプター分割」行うための制御ブロック40fが設けられている。   Further, the microcomputer block 400 is provided with a control block 40e for performing the “main chapter automatic chapter division” and a control block 40f for performing “magic chapter division”.

また、図1、図10および図17の対応関係において、チューナ1、チューナ21、チューナ212は対応関係にある。また図1、図17のチューナ1、チューナ212は、図10の音声信号処理部22を含む。また、図1のCPU11と、図10の無音検出装置25、無音時刻記録装置26、無音部間隔計算装置27、チャプター境界設定装置28と、図17の制御部400とが対応関係にある。   In addition, in the correspondence relationships of FIGS. 1, 10, and 17, the tuner 1, the tuner 21, and the tuner 212 are in a correspondence relationship. 1 and FIG. 17 includes the audio signal processing unit 22 shown in FIG. Also, the CPU 11 in FIG. 1, the silence detection device 25, the silence time recording device 26, the silence interval calculation device 27, the chapter boundary setting device 28 in FIG. 10, and the control unit 400 in FIG.

図17において、デコーダ部300の出力オーディオ信号は、セレクタ301を介してデジタルアナログ変換器302でアナログ変換され外部に出力される。セレクタ301は、マイクロコンピュータブロック400からのセレクト信号により制御される。これによりセレクタ301は、TVチューナ212やA/V入力部211からのデジタル信号を直接モニタする時、エンコーダ部200をスルーした信号を直接選択することも可能である。   In FIG. 17, the output audio signal of the decoder unit 300 is analog-converted by the digital-analog converter 302 via the selector 301 and output to the outside. The selector 301 is controlled by a select signal from the microcomputer block 400. Accordingly, the selector 301 can directly select a signal that has passed through the encoder unit 200 when directly monitoring a digital signal from the TV tuner 212 or the A / V input unit 211.

なお、エンコーダ部200のフォーマッタでは、録画中、各切り分け情報を作成し、定期的にマイクロコンピュータブロック400のMPUへ送る(GOP先頭割り込み時などの情報)。切り分け情報としては、VOBU(ビデオオブジェクトユニット)のパック数、VOBU先頭からのIピクチャのエンドアドレス、VOBUの再生時間などである。   Note that the formatter of the encoder unit 200 creates segmentation information during recording and periodically sends it to the MPU of the microcomputer block 400 (information at the time of GOP head interrupt, etc.). The segmentation information includes the number of packs of VOBU (video object unit), the end address of the I picture from the beginning of the VOBU, the playback time of the VOBU, and the like.

同時に、アスペクト情報処理部からの情報を録画開始時にMPUへ送り、MPUはVOBストリーム情報(STI)を作成する。ここでSTIは、解像度データ、アスペクトデータなどを保存し、再生時、各デコーダ部ではこの情報を元に初期設定が行われる。   At the same time, information from the aspect information processing unit is sent to the MPU at the start of recording, and the MPU creates VOB stream information (STI). Here, the STI stores resolution data, aspect data, and the like, and at the time of reproduction, each decoder unit is initialized based on this information.

また本装置では、ビデオファイルは1ディスクに1ファイルとしている。またデータをアクセス(シーク)している間に、途切れないで再生を続けるために、最低限連続する情報単位(サイズ)を決めている。この単位をCDA(コンティギュアス・データ・エリア)という。CDAサイズは、ECC(エラー訂正コード)ブロック(16セクタ)の倍数であり、ファイルシステムではこのCDA単位で記録を行っている。   In this apparatus, one video file is recorded on one disc. In order to continue playback without interruption while accessing (seeking) data, a minimum continuous information unit (size) is determined. This unit is called CDA (Contiguous Data Area). The CDA size is a multiple of an ECC (error correction code) block (16 sectors), and the file system records in this CDA unit.

データプロセッサ部103は、エンコーダ部200のフォーマッタからVOBU単位のデータを受け取り、CDA単位のデータをディスクドライブ部102あるいはハードディスクドライブ部104に供給している。またマイクロコンピュータブロック400のMPUは、記録したデータを再生するのに必要な管理情報を作成し、データ記録終了のコマンドを認識すると、作成した管理情報をデータプロセッサ部103に送る。これにより、管理情報がディスクに記録される。従って、エンコードが行われているとき、エンコーダ部200からマイクロコンピュータブロック400のMPUは、データ単位の情報(切り分け情報など)を受け取る。また、マイクロコンピュータブロック400のMPUは、記録開始時には光ディスク及びハードディスクから読み取った管理情報(ファイルシステム)を認識し、各ディスクの未記録エリアを認識し、データ上の記録エリアをデータプロセッサ部103を介してディスクに設定している。   The data processor unit 103 receives data in VOBU units from the formatter of the encoder unit 200 and supplies data in CDA units to the disk drive unit 102 or the hard disk drive unit 104. Further, the MPU of the microcomputer block 400 creates management information necessary for reproducing the recorded data. When the MPU recognizes a data recording end command, the MPU sends the created management information to the data processor unit 103. Thereby, the management information is recorded on the disc. Therefore, when encoding is performed, the MPU of the microcomputer block 400 receives data unit information (eg, segmentation information) from the encoder unit 200. The MPU of the microcomputer block 400 recognizes the management information (file system) read from the optical disk and the hard disk at the start of recording, recognizes the unrecorded area of each disk, and sets the data recording area in the data processor unit 103. Is set to disk via.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明の一実施の形態を説明するために示した信号処理装置の全体的構成例を示す図である。It is a figure which shows the example of a whole structure of the signal processing apparatus shown in order to demonstrate one Embodiment of this invention. この発明の一実施の形態の基本的構成例を示す図である。It is a figure which shows the basic structural example of one embodiment of this invention. この発明の装置の一実施の形態における基本動作例を示す図である。It is a figure which shows the basic operation example in one embodiment of the apparatus of this invention. この発明の装置の他の実施の形態における基本動作例を示す図である。It is a figure which shows the basic operation example in other embodiment of the apparatus of this invention. この発明の装置のさらに他の実施の形態における基本動作例を示す図である。It is a figure which shows the example of basic operation | movement in further another embodiment of the apparatus of this invention. この発明の装置のまた他の実施の形態における基本動作例を示す図である。It is a figure which shows the example of basic operation | movement in other embodiment of the apparatus of this invention. この発明の装置の一実施の形態における基本動作例を説明するために示したフローチャートである。It is the flowchart shown in order to demonstrate the example of basic operation | movement in one Embodiment of the apparatus of this invention. この発明の装置の一実施の形態に係わる映像構造化処理の基本的な処理構造を説明するために示した説明図である。It is explanatory drawing shown in order to demonstrate the basic processing structure of the image | video structuring process concerning one Embodiment of the apparatus of this invention. この発明の装置の一実施の形態に係わる映像構造化処理の基本的な処理を説明するために示し、図8の続きを示す説明図である。FIG. 9 is an explanatory diagram showing the basic processing of the video structuring processing according to the embodiment of the apparatus of the present invention and showing the continuation of FIG. 8. この発明の装置の一実施の形態に係わる任意区間検出処理の基本的な処理構造を説明するために示した説明図である。It is explanatory drawing shown in order to demonstrate the basic processing structure of the arbitrary area detection processing concerning one embodiment of the apparatus of this invention. 図10の装置で実行される動作の一例を説明するために示したタイミングチャートである。FIG. 11 is a timing chart shown for explaining an example of an operation executed by the apparatus of FIG. 10. FIG. 図10の装置で実行される動作の基本的な動作例を説明するために示したフローチャートである。It is the flowchart shown in order to demonstrate the basic operation example of the operation | movement performed with the apparatus of FIG. 図10の装置で実行される動作の基本的な動作例をさらに詳しく説明するために示したフローチャートである。FIG. 11 is a flowchart shown in order to explain the basic operation example of the operation executed by the apparatus of FIG. 10 in more detail. 図10の装置で実行される動作の基本的な動作例を説明するために示したフローチャートである。It is the flowchart shown in order to demonstrate the basic operation example of the operation | movement performed with the apparatus of FIG. この発明に係る本編自動チャプター分割動作を設定するための画面の例を示す図である。It is a figure which shows the example of the screen for setting the main part automatic chapter division | segmentation operation | movement which concerns on this invention. 図8、図9で説明したチャプター分割処理を設定するための画面の例を示す図である。It is a figure which shows the example of the screen for setting the chapter division | segmentation process demonstrated in FIG. 8, FIG. この発明が適用された記録再生装置の構成ブロックを示す説明図である。It is explanatory drawing which shows the structure block of the recording / reproducing apparatus to which this invention was applied.

符号の説明Explanation of symbols

1…チューナ、2…トランスポートデコーダ、3…AVデコーダ、6…OSDコントローラ、7…ダイレクトRDRAM、8…SCRAM、9…EEPROM、11…制御部、21…チューナ、22…音声信号処理部、23…エンコーダぶ、24…データ処理部、25…無音検出装置、26…無音時刻記録装置、27…無音部間隔計算装置、28…チャプター境界設定装置。   DESCRIPTION OF SYMBOLS 1 ... Tuner, 2 ... Transport decoder, 3 ... AV decoder, 6 ... OSD controller, 7 ... Direct RDRAM, 8 ... SCRAM, 9 ... EEPROM, 11 ... Control part, 21 ... Tuner, 22 ... Audio signal processing part, 23 ... Encoder, 24... Data processing unit, 25. Silence detection device, 26. Silence time recording device, 27. Silence interval calculation device, and 28.

Claims (6)

映像信号の連続するフレーム間の類似度を解析して映像信号の意味内容に応じて区切った第1の区切り情報を得る装置において、
音声信号を解析する制御部を有し、この制御部が、
音声信号の無音部を検出するとともに、無音部と次の無音部との時間間隔と検出した無音部のカウント数とが所定条件を満足する区間を検出し、最初と最後の無音部に対して第2の区切り情報を生成し、
前記第1と第2の区切り情報を重ねて第3の区切り情報を得るとともに、
前記最初と最後の無音部に対して与えた第2の区切り情報の間に、前記第1の区切り情報が存在する場合には、この第1の区切り情報は非採用とする
ことを特徴とする音声と映像信号から判定した映像信号の区切り情報設定方法。
In an apparatus for obtaining the first delimiter information divided according to the semantic content of the video signal by analyzing the similarity between successive frames of the video signal,
It has a control unit that analyzes the audio signal, and this control unit
While detecting the silent part of the audio signal, it detects a section in which the time interval between the silent part and the next silent part and the count number of the detected silent part satisfy the predetermined condition, and for the first and last silent part Generate second separator information,
While overlapping the first and second delimiter information to obtain third delimiter information,
If the first delimiter information exists between the second delimiter information given to the first and last silence parts, the first delimiter information is not adopted. Delimiter information setting method for video signal determined from audio and video signal.
前記所定条件は、
音声信号の無音部を検出し、無音部と次の無音部との時間間隔と、が一定時間(A)の倍数であるかどうかを判定すること、
前記時間間隔が一定時間(A)の倍数であれば、無音部の検出をカウントし、前記無音部のカウント数が閾値(B)個以上あれば、最初と最後の無音部に対して第2の区切り情報を取得すること、である請求項1記載の音声と映像信号から判定した映像信号の区切り情報設定方法。
The predetermined condition is:
Detecting a silent part of an audio signal and determining whether a time interval between the silent part and the next silent part is a multiple of a certain time (A);
If the time interval is a multiple of a certain time (A), the detection of silence is counted, and if the number of silences is greater than or equal to the threshold (B), the second and second silences are counted for the first and last silences. The method for setting delimiter information of a video signal determined from audio and video signals according to claim 1, wherein the delimiter information is acquired.
前記第2の区切り情報により設定された区間は、前記制御部がコマーシャル区間として判定した区間であることを特徴とする請求項2記載の音声と映像信号から判定した映像信号の区切り情報設定方法。   3. The method for setting delimiter information for a video signal determined from audio and video signals according to claim 2, wherein the interval set by the second delimiter information is a segment determined by the control unit as a commercial segment. 前記最初と最後の無音部に対して与えた第2の区切り情報の間は、前記制御部が音楽の部分として判定した区間であることを特徴とする請求項1記載の音声と映像信号から判定した映像信号の区切り情報設定方法。   The determination between audio and video signals according to claim 1, wherein the interval between the second delimiter information given to the first and last silent sections is a section determined by the control section as a music part. To set the delimiter information of the video signal. 映像信号の連続するフレーム間の類似度を解析して映像信号の意味内容に応じて区切った第1の区切り情報を得る映像構造化処理部を有する装置において、
音声信号を解析する任意区間検出処理部を有し、前記任意区間検出処理部は、
無音検出部と、
無音部を検出したときの無音検出時刻を記憶する記憶部と、
無音部と次の無音部との時間間隔を計測する無音部時間間隔計測部と、
無音部の時間間隔が所定の時間(A)の倍数であって、かつ所定個数(B)連続した無音部を特定し、その最初と最後の無音部に第2の区切り情報を設定する無音部のカウントおよび条件判定部と、
前記第1の区切り情報および前記条件判定部からの第2の区切り情報が入力され、前記第1と第2の区切り情報を重ねた第3の区切り情報を生成し、前記最初と最後の無音部に対して与えた第2の区切り情報の間に、前記第1の区切り情報が存在する場合には、この第1の区切り情報は非採用とする境界設定処理部と
を有することを特徴とする音声と映像信号から判定した映像信号の区切り情報設定装置。
In an apparatus having a video structuring processing unit that analyzes a similarity between consecutive frames of a video signal and obtains first segment information segmented according to the semantic content of the video signal.
An arbitrary section detection processing unit for analyzing a voice signal, the arbitrary section detection processing unit,
Silence detector,
A storage unit for storing the silent detection time when the silent unit is detected;
A silent part time interval measuring unit for measuring a time interval between the silent part and the next silent part;
A silent part in which the time interval of the silent part is a multiple of a predetermined time (A) and a predetermined number (B) of continuous silent parts are specified, and second delimiter information is set in the first and last silent parts Counting and condition determination unit,
The first delimiter information and the second delimiter information from the condition determination unit are input to generate third delimiter information in which the first and second delimiter information are overlapped, and the first and last silent portions A boundary setting processing unit that does not adopt the first delimiter information when the first delimiter information is present between the second delimiter information given to Delimiter information setting device for video signals determined from audio and video signals.
前記第1の区切り情報を保存する第1の保存部と、前記第2の区切り情報を保存する第2の保存部を有し、
前記境界設定処理部は、前記第1と第2の保存部からの第1、第2の区切り情報を用いて前記第3の区切り情報を生成していることを特徴とする請求項5記載の音声と映像信号から判定した映像信号の区切り情報設定装置。
A first storage unit that stores the first delimiter information; and a second storage unit that stores the second delimiter information;
6. The boundary setting processing unit generates the third delimiter information using first and second delimiter information from the first and second storage units. Delimiter information setting device for video signals determined from audio and video signals.
JP2005144191A 2005-05-17 2005-05-17 Separation information setting method and apparatus for video signal determined from audio and video signal Expired - Fee Related JP4373962B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005144191A JP4373962B2 (en) 2005-05-17 2005-05-17 Separation information setting method and apparatus for video signal determined from audio and video signal
US11/434,865 US7764862B2 (en) 2005-05-17 2006-05-17 Method of and apparatus for setting video signal delimiter information judged from audio and video signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005144191A JP4373962B2 (en) 2005-05-17 2005-05-17 Separation information setting method and apparatus for video signal determined from audio and video signal

Publications (2)

Publication Number Publication Date
JP2006324771A true JP2006324771A (en) 2006-11-30
JP4373962B2 JP4373962B2 (en) 2009-11-25

Family

ID=37448378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005144191A Expired - Fee Related JP4373962B2 (en) 2005-05-17 2005-05-17 Separation information setting method and apparatus for video signal determined from audio and video signal

Country Status (2)

Country Link
US (1) US7764862B2 (en)
JP (1) JP4373962B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008298976A (en) * 2007-05-30 2008-12-11 Toshiba Corp Music detecting apparatus and music detecting method
JP2009086016A (en) * 2007-09-27 2009-04-23 Toshiba Corp Music detecting device and music detecting method
JP2010272155A (en) * 2009-05-20 2010-12-02 Sony Corp Information processor and information processing method
JP2012037910A (en) * 2011-11-07 2012-02-23 Toshiba Corp Music detection device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611952B2 (en) * 2006-09-26 2011-01-12 株式会社日立製作所 Program recording apparatus and commercial detection method
WO2009090705A1 (en) * 2008-01-16 2009-07-23 Panasonic Corporation Recording/reproduction device
EP2408190A1 (en) 2010-07-12 2012-01-18 Mitsubishi Electric R&D Centre Europe B.V. Detection of semantic video boundaries
US8913882B2 (en) * 2012-12-31 2014-12-16 Eldon Technology Limited Auto catch-up
CN111050201B (en) * 2019-12-10 2022-06-14 Oppo广东移动通信有限公司 Data processing method and device, electronic equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269330B1 (en) * 1996-11-01 2007-09-11 Televentions, Llc Method and apparatus for controlling a video recorder/player to selectively alter a video signal
JP2000354225A (en) 1999-06-11 2000-12-19 Toshiba Corp Disk recorder
JP4697371B2 (en) 2001-08-03 2011-06-08 日本電気株式会社 Commercial detection method and apparatus
EP1708101B1 (en) * 2004-01-14 2014-06-25 Mitsubishi Denki Kabushiki Kaisha Summarizing reproduction device and summarizing reproduction method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008298976A (en) * 2007-05-30 2008-12-11 Toshiba Corp Music detecting apparatus and music detecting method
JP2009086016A (en) * 2007-09-27 2009-04-23 Toshiba Corp Music detecting device and music detecting method
JP2010272155A (en) * 2009-05-20 2010-12-02 Sony Corp Information processor and information processing method
JP2012037910A (en) * 2011-11-07 2012-02-23 Toshiba Corp Music detection device

Also Published As

Publication number Publication date
JP4373962B2 (en) 2009-11-25
US7764862B2 (en) 2010-07-27
US20060263061A1 (en) 2006-11-23

Similar Documents

Publication Publication Date Title
JP4373962B2 (en) Separation information setting method and apparatus for video signal determined from audio and video signal
JPWO2005117432A1 (en) Program recording apparatus and program recording method
JP4373961B2 (en) Video recording / reproducing apparatus and video recording / reproducing method
JP4987341B2 (en) Program recommendation device and program recommendation method
JP2008098960A (en) Information recording and reproducing apparatus
JP4660416B2 (en) Receiving device with recording function and recording reservation method for receiving device
JP2006324743A (en) Delimiter information setting method and apparatus for video signal utilizing silence part
JP4381345B2 (en) Video signal delimiter information setting method and apparatus using audio mode
JP2006338751A (en) Network compliant information recording-reproducing device and its control method
JP4600236B2 (en) REPRODUCTION DEVICE, RECORDING / REPRODUCTION DEVICE, DATA PROCESSING METHOD, AND PROGRAM THEREOF
JP4886619B2 (en) Information recording / reproducing apparatus and data management method
JP2008141383A (en) Video editing device, system, and method
JP2007104420A (en) Broadcast recording apparatus and broadcast recording method
JP2007300411A (en) Recorder/reproducer with automatic recording function and its information arranging method
JP2005109742A (en) Recorder of content, reproducer of content, recorder/reproducer of content and method for managing deletion of content
JP4575502B2 (en) Program recording / playback apparatus and recording stop method thereof
US20030161613A1 (en) Information recording/reproducing apparatus and method for D terminal signal
JP2013051645A (en) Video processing device and video processing method
JP4309312B2 (en) Content recording / playback apparatus and content management method.
JP2005159537A (en) Video recorder and video recording means
JP5148741B2 (en) Electronic apparatus, information recording / reproducing apparatus, and data management method
JP2008035053A (en) Video-editing device, video-reproducing device, video-editing method and video-reproducing method
JP5075423B2 (en) RECOMMENDED PROGRAM PRESENTATION DEVICE AND RECOMMENDED PROGRAM PRESENTATION METHOD
JP2006318588A (en) Guidance screen processor and method of recording or reproducing apparatus
JP2008172618A (en) Chapter usage tabulation server, and recording/reproduction apparatus used for it

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090811

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090904

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees