WO2006070601A1 - データ処理装置 - Google Patents

データ処理装置 Download PDF

Info

Publication number
WO2006070601A1
WO2006070601A1 PCT/JP2005/022929 JP2005022929W WO2006070601A1 WO 2006070601 A1 WO2006070601 A1 WO 2006070601A1 JP 2005022929 W JP2005022929 W JP 2005022929W WO 2006070601 A1 WO2006070601 A1 WO 2006070601A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video
fade
point
unit
Prior art date
Application number
PCT/JP2005/022929
Other languages
English (en)
French (fr)
Inventor
Kenji Morimoto
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/722,721 priority Critical patent/US20080092048A1/en
Priority to JP2006550666A priority patent/JP4932493B2/ja
Publication of WO2006070601A1 publication Critical patent/WO2006070601A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Definitions

  • the present invention relates to technology for reproducing video signals such as digital broadcasts.
  • a digital recording and reproducing apparatus for recording information such as video and audio which are digitized and transmitted on a recording medium such as an optical disk has been put to practical use.
  • the digital video bit stream recorded on these recording media is compressed by intra-frame data compression, inter-frame data compression, etc. using, for example, the MPEG2 (Motion Picture Experts Group) etc., in order to use the recording medium capacity efficiently. It is common to be compressed and recorded.
  • the playback start position that you want to perform special cueing and playback is stored in a memory or recording medium, and the user's It is possible to perform cueing reproduction from the reproduction start position set freely according to preference.
  • this editing work it is assumed in many cases that editing is performed to cut out a commercial inserted into a program recorded especially from a TV broadcast.
  • FIG. 7 shows a configuration of functional blocks of a conventional recording and reproducing apparatus 170.
  • the recording and reproducing apparatus 170 includes an antenna 71, a digital tuner 72, a recording and reproducing unit 73, and a microcontroller. 3, a stream separation unit 4, a video decoding unit 5, a frame storage unit 6, a GUI (Graphical User Interface) mixing unit 8, a video output terminal 9, an audio decoding unit 10, an audio output terminal 11 And.
  • an optical disc is assumed as the recording medium 1
  • the broadcast wave received by the antenna 71 is received by the digital tuner 72, and is demodulated into a digital bit stream including video and audio.
  • the recording / reproducing unit 73 converts the digital bit stream signal into a signal for recording and records the signal on the recording medium 1.
  • the digital video and audio signals recorded in the recording medium 1 are separated into video and audio bit streams by the stream separation unit 4 at the same time as they are recorded. Then, they are input to the video decoding unit 5 and the audio decoding unit 10, respectively.
  • the input video bit stream is decoded using the frame storage unit 6 to obtain a reproduction decoded image.
  • the decoded image is output from the video output terminal 9 by adding a GUI image that causes the GUI mixing unit 8 to display the device operation interface with the user on the screen, if necessary. Connected to etc.
  • the audio signal decoded by the audio decoding unit 10 is output from the audio output terminal 11 and connected to a TV or the like. At this time, the audio decoding unit 10 detects when the audio mode changes from stereo to monaural or dual monaural (bilingual broadcast), and notifies the microcontroller 3 of this.
  • the microcontroller 3 records an index signal indicating an index point on the recording medium 1 at the change point of the audio mode detected at the time of recording. Therefore, when the main program of the broadcast program is dual monaural (bilingual) or monaural and the commercial is stereo broadcast or vice versa, the index signal may be recorded at the boundary between the main program and the commercial. It becomes possible.
  • a recording and reproducing apparatus using digital broadcasting and an optical disc recording medium is taken as an example.
  • the automatic commercial skip reproduction function can be realized with exactly the same configuration.
  • the user it is also possible for the user to perform editing based on the position of the index point (the data position at which the index signal is detected), and to realize the simultaneous cut function.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 6-295488
  • An object of the present invention is to detect a boundary between a commercial and a main story automatically detected for use in commercial skipping and commercial cut editing in a recording and reproducing apparatus with high accuracy in units of one frame.
  • a data processing apparatus receives an image signal composed of a plurality of images, and an image level detection unit for detecting a signal level of a predetermined image based on the signals; It has a frame storage unit for storing and a controller for adding index information.
  • the image level detection unit specifies a video switching point based on each signal level of a plurality of continuous images, and the controller adds index information to a data position in the data stream corresponding to the switching point.
  • the image level detection unit may detect at least one of a fade in start point and a fade out end point on the basis of the signal levels, and may specify as the switching point. .
  • the controller outputs a detection instruction to start detection of the switching point
  • the image level detection unit may detect at least one of a fade-in start point and a fade-out end point of the video based on the detection instruction, and may identify the detected point as the switching point.
  • the data processing apparatus may further include a GUI mixing unit that mixes GUI images on the video.
  • the controller may output the detection instruction based on an instruction given via the GUI mixing unit.
  • the image level detection unit may specify, as the switching point, one of a fade-in start point and a fade-out end point of the video initially detected after receiving the detection instruction. Good.
  • the controller may set a chapter of the video based on the switching point.
  • the data processing apparatus may further include a GUI mixing unit for mixing GUI images on the video.
  • the image level detection unit detects one of a start point of fade-in and an end point of fade-out of the image based on a fade-in and / or fade-out detection instruction given through the GUI mixing unit, Identify as the switching point.
  • the signal of the image is a digital signal encoded based on the data decomposed into the DC component and the AC component of the image, and the image level detection unit determines the D of the predetermined image.
  • the signal level may be detected.
  • the signal of the image is an analog signal
  • the image level detection unit determines the signal level of the predetermined image based on the signal levels of the plurality of pixels constituting the predetermined image. May be detected.
  • the data processing apparatus may further include a video decoding unit that decodes video data and generates the signal.
  • the image level detection unit may receive the signal generated by the video decoding unit.
  • the data processing apparatus may further include a reproduction unit configured to reproduce the data stream from a recording medium on which the data stream including the video data is recorded.
  • the video decoding unit is configured to transmit the data stream from the data stream reproduced by the reproduction unit. Also, get video data.
  • the data processing apparatus may further include a receiving unit that demodulates a broadcast wave and outputs a data stream including the video data.
  • the video decoding unit may obtain the video data from the data stream output by the receiving unit.
  • the image level detection unit may specify the switching point in a predetermined section of the entire section of the video.
  • the image level detection unit may specify the switching point with the one section designated by the user and one section set in advance as the predetermined section.
  • the data processing apparatus may further include a GUI mixing unit that mixes GUI images on the video.
  • the controller receives the setting instruction of the index information for a predetermined section of all the sections of the video, and outputs a detection instruction and a mixing instruction, and the image level detection unit is configured to, based on the detection instruction,
  • the switching point may be specified in the predetermined section, and the GUI mixing unit may output the image of the predetermined section based on the mixing instruction and display the presence of the specified switching point.
  • the boundary between the main program and the commodity is detected with high accuracy.
  • the boundary between the main program and the commodity is detected with high accuracy.
  • FIG. 1 A diagram showing a configuration of functional blocks of a recording and reproducing apparatus 100 according to Embodiment 1.
  • FIG. 2 is a view showing an example of a GUI image 12 generated by the GUI mixing unit 8.
  • FIG. 3 (a) and (b) are diagrams showing output signals of the image level detection unit 7.
  • FIG. 4 is a flowchart showing an operation procedure of a chapter registration mode of the recording and reproducing apparatus according to the first embodiment.
  • FIG. 5 is a view showing an example of a GUI image 57 according to a second embodiment.
  • Garden 6 It is a flowchart showing an operation procedure of a chapter registration mode of the recording and reproducing apparatus according to the second embodiment.
  • the data processing apparatus is capable of reproducing video and audio recorded on a recording medium, and also capable of editing them.
  • the editing process uses a recording function, and in the following embodiments, the data processing apparatus will be described as a recording and reproducing apparatus.
  • FIG. 1 shows the configuration of functional blocks of the recording and reproducing apparatus 100 according to the present embodiment.
  • the recording / reproducing apparatus 100 includes a recording / reproducing unit 2, a microcontroller 3, a stream separation unit 4, a video decoding unit 5, a frame storage unit 6, an image level detection unit 7, a GUI mixing unit 8, a video An output terminal 9, an audio decoding unit 10, an audio output terminal 11, antennas 12 and 13, and a receiving unit 14.
  • the recording and reproducing apparatus 100 can store program data including video and audio in the recording medium 1. Such programs can be acquired from digital broadcast waves and analog broadcast waves
  • antenna 12 receives a digital broadcast wave
  • antenna 13 receives an analog broadcast wave and sends the broadcast wave to receiver 14.
  • the reception unit 14 demodulates the digital broadcast wave to obtain and output a coded digital bit stream including video and audio.
  • the analog broadcast wave is demodulated to generate and output an uncoded digital bit stream (a signal, a so-called baseband signal) including video and audio. .
  • the recording / reproducing unit 2 When the recording / reproducing unit 2 receives the encoded digital bit stream, the recording / reproducing unit 2 applies predetermined processing to the digital bit stream and writes the processing onto the recording medium 1.
  • the predetermined process is, for example, an additional process of time information for outputting the digital bit stream in the order of reception at the time of reproduction.
  • the recording / reproducing unit 2 When the recording / reproducing unit 2 receives an uncoded digital bit stream, the recording / reproducing unit 2 compresses and encodes the bit stream on the basis of the MPEG standard or the like and writes the bit stream to the recording medium 1.
  • the recording medium 1 will be described as an optical disc represented by Blu-ray Disc.
  • the recording medium 1 is not a component of the recording / reproducing apparatus 100, but for example, if the recording medium 1 is a non-commutable medium such as a hard disk. It may be treated as a component of the recording / reproducing apparatus 100.
  • One of the features of the recording and reproducing apparatus 100 is to automatically detect the fade-in start point and the fade-out end point based on the image level of the frame image constituting the video. Since the detected start point and end point are identified as video switching points, the user can confirm whether the detected point is a border point between a commercial and a main story.
  • the data processing device can force an index point at the switching point of the image identified by the user (insert index signal). Since the user can start reproduction from any index point at the time of editing work to be performed later and execute editing etc., the work can be performed efficiently.
  • the start point, the end point, the switching point, the boundary point, etc. all mean the constituent units of the image.
  • a frame image is a constituent unit of video. That is, it is assumed that a plurality of frame images are sequentially switched at a predetermined frequency to display an image.
  • the frame image listed as the constituent unit of the video is an example, and may be a field image.
  • a data stream recorded in the recording medium 1 and containing video data and audio data is reproduced by the reproduction unit 2 in accordance with an instruction from the microphone controller 3.
  • “reproduction” refers to emitting laser light to the recording medium 1 to acquire reflected light and acquiring information recorded on the recording medium 1 from the reflected light.
  • a pit (or a mark) is formed on the recording medium 1 according to the information to be recorded, and the information is recorded and recorded using the fact that the optical characteristics of the pit and the portion other than the pit are different. Information can be reproduced.
  • the reproduced data stream is, for example, a bitstream such as MPEG2-TS (Transport Stream) composed of a plurality of TS packets.
  • a TS packet is usually composed of a 4-byte transport packet header and a 184-byte payload.
  • packet ID packet identifier
  • the payload stores elementary data and additional information.
  • the elementary data is content data such as video data and audio data, and control data for controlling reproduction. What kind of data is stored depends on the type of packet.
  • the stream separation unit 4 separates TS packets including video data from TS packets including audio data by using the above-described packet ID. Then, it outputs video data and audio data acquired from each separated packet.
  • the output video data is decoded by the video decoding unit 5 using the frame storage unit 6 and transmitted to the GU I mixing unit 8 as a video signal.
  • the GUI mixing unit 8 superimposes an image signal of an interface image for user's device operation on the video signal to generate a composite video signal.
  • the composite video signal is output from the video output terminal 9.
  • audio data is decoded by the audio decoding unit 10 and output from the audio output terminal 11 as an audio signal.
  • the recording and reproducing apparatus 100 reproduces information such as video and audio recorded on the recording medium 1 and outputs video (image) signals and audio signals.
  • the GUI mixing unit 8 can superimpose an interface image for causing the user to perform device operation on the video to be reproduced.
  • the user can set an index for enabling cueing reproduction from an arbitrary video frame, and specifically, an index signal at a specific data position (information indicating an index) ) To add or insert.
  • Address information on the recording medium can be used as an index signal. That is, the address information of the data position where the index point should be hit may be separately recorded on the recording medium 1.
  • the recording / reproducing apparatus 100 can reproduce the bit stream from the position on the recording medium 1 specified by the address information by reading the address information at the time of reproduction.
  • the index signal is loaded and inserted based on an instruction of the microphone controller 3, for example.
  • the index point is used not only in the case of easily cueing and reproducing as described above, but also in the editing work for cutting the stream. That is, the index point is Divide streams by data position, delete from index point to index point, define from index point to index point as chapters, rearrange order by chapter, delete, etc. Used during editing work. When performing these editing operations, it is preferable to be able to set index points in high-precision frame units.
  • FIG. 2 shows an example of the GUI image 12 generated by the GUI mixing unit 8.
  • the GUI image 12 is displayed on the screen of a display device such as a TV.
  • the reproduced image is inserted in the window 13 and the reproduced image is displayed in this area when the reproducing operation is performed.
  • a chapter setting button 14 is provided on the screen, and it is possible to create a chapter by inserting an index signal into an arbitrary frame by remote control operation or the like.
  • the user can look for a desired frame on the screen by an operation such as fast forward, slow, or frame forward by remote control operation, and can set an index point for an appropriate frame.
  • To set a chapter specify index points corresponding to the beginning and end.
  • a display window 16 indicating, for example, the time from the beginning of the recorded program is displayed on the entire image 12.
  • a bar 17 corresponding to the playback time of the entire stream is displayed. The bar indicates the current playback point 18 in the stream. Based on these indications, the user can use the information as a support when searching for a desired playback point. Furthermore, for the bar, the time position in the stream into which the index signal is inserted is schematically displayed.
  • the index signal can be recorded at a free playback position designated by the user through the GUI image 12 to create a chapter.
  • the user presses the chapter creation button. Before and after that, it is possible to automatically detect a fade in / out point for N seconds and hit a chapter.
  • N may be set freely by the user, or may be pre-specified.
  • recording of index signals (setting of index points) is performed when creating chapters, so index points can be set in any section. In other words, pressing the chapter creation button causes the user to The setting of the sketch point and the creation of a chapter are instructed.
  • FIGS. 3 (a) and 3 (b) show output signals of the image level detector 7.
  • the image level detection unit 7 detects the level of the image at the timings of time 20 to 32 in FIG. 3 (a) and times 33 to 45 in FIG. 3 (b), and outputs the result.
  • This “image” is a structural unit of video and is also called a frame.
  • a plurality of images are displayed as images by successively switching at a predetermined frequency (for example, 30 Hz in the NTSC system). The interval between each time shown is the display time per video frame. That is, FIGS. 3 (a) and 3 (b) show the change of the image level of the decoded image for each frame.
  • the image level is calculated based on, for example, a DC component of a DCT (Discrete Cosine Transform) block configured of 8 ⁇ 8 pixels in the case of an MPEG2 stream.
  • a DCT Discrete Cosine Transform
  • the DCT blocks are transmitted in the macroblock layer.
  • the frame structure usually, the number of frames equivalent to the number obtained by dividing a 1-frame screen into 8x8 pixel DCT blocks is transmitted.
  • a DC component representing an average image level of 8 ⁇ 8 pixels and an AC coefficient representing a frequency component of 8 ⁇ 8 pixels are sequentially transmitted.
  • the image level detection unit 7 adds the value of the DC component in one frame screen period or calculates the average value, 1 It is possible to obtain the value of the DC component of the whole frame (total value or average value of image levels for the number of DCT blocks).
  • the values obtained in this way are described and described as the image level of each frame.
  • FIG. 3 (a) shows the case where the program main part fades out to a black screen and immediately switches to commercial, as shown in FIG.
  • the image level becomes smoothly lower every frame 21 to 24, and it becomes sharp at the first frame 28 that entered the commercial, from near zero (at the end of fade-out) at frames 25, 26, 27 etc. Is getting bigger.
  • the image level detection unit 7 monitors image levels by providing three levels as shown by dotted lines. Then, the image level continues to decrease monotonically every frame, and It is easily possible to detect a low level of bell, fade out when entering a zone and a state of low.
  • the frame 27 in which the level increases for example, from the frame 27 in the lowest level zone to the level exceeding 2 steps, it is indicated that the video suddenly starts from the black screen. Therefore, in this example, as indicated by the out point and the arrow, it can be determined that the frame 27 is the last frame of the faded-out image.
  • FIG. 3 (b) shows a mechanism for detecting a fade-in point.
  • Frame 38 is a frame that has entered the lowest level zone in one frame beyond the zone divided by the three levels shown by the dotted line. After that, the force on the frame 39 force, etc. 43, the image level continues to increase monotonically every frame. Therefore, it is possible to determine that frame 38 is before the start of fade-in and frame 38 is the fade-in point (at the start of fade-in) as indicated by the arrow in point.
  • FIG. 4 shows an operation procedure of the chapter registration mode of the recording / reproducing apparatus 100.
  • a process of putting an index point according to the user's instruction is performed.
  • the GUI image 12 shown in FIG. 2 is displayed to start normal reproduction, and in step 50, the fade-in / out point can be detected by the image level detection unit.
  • the reproduction operation such as fast-forwarding, slowing, or frame-by-frame advancing is followed.
  • step 52 When the user looks at the playback screen and finds a fade in / out point near the point where he wants to hit an index point, or when it is determined that a fade in Z out is about to appear, the user instructs to create a chapter in step 52. . If the fade-in Z-out point has appeared within the past N seconds, the process proceeds to step 55, and the image level detection unit 5 and the microcontroller 3 which were performing the fade-in / out point detection in step 55 Tick index points in the frame and register chapters. If it has not appeared within the past N seconds, the process proceeds to step 54, where normal reproduction is performed from the user designated point to detect a fade in / out point. Then, the process proceeds to step 55, and an index point is added to the detected frame. Register the beat chapter.
  • step 56 it is determined whether the end button 15 is pressed or not, and if it is not pressed, the operation of striking the next index point is continued. If the end button 15 is pressed, the chapter registration mode is ended. For example, the display of the GUI screen 12 is ended, and the screen returns to the normal playback screen or the like.
  • the configuration is described in which the indition point is hit near the frame instructed by the user using the GUI image 12, but the fade in / out is completely automatically performed without the user's instruction during the reproduction. It is also possible to find all the points and hit an index point.
  • the configuration of the recording and reproducing apparatus according to the present embodiment is completely the same as that of the first embodiment, and has the configuration shown in FIG. Therefore, the recording and reproducing apparatus according to the present embodiment will be described as "recording and reproducing apparatus 100".
  • the GUI image 12 (FIG. 2) is used to find a fade-in Z or fade-out point with one chapter creation instruction button 14 and hit an index point.
  • FIG. 5 shows an example of the GUI image 57 according to the present embodiment.
  • the GUI image 57 is different from the GUI image 12 (FIG. 2) according to the first embodiment in that the in point detection button 46 and the out point are used instead of the chapter setting button 14.
  • the detection button 47 is provided.
  • FIG. 6 shows an operation procedure of the chapter registration mode of the recording / reproducing apparatus 100.
  • the chapter registration mode it enters a mode in which an index point is instructed by the user.
  • the GUI image 57 shown in FIG. 5 is displayed to start normal reproduction, and in step 60, the fade-in / out point is detected by the image level detection unit.
  • the reproduction operation such as fast-forwarding, slow-forwarding or frame-by-frame advancing is followed. If the user looks at the playback screen and finds a fade in Z out point near the point at which he wishes to hit an index point, or if it is determined that a fade in / out is about to appear, chapter creation is performed in step 62. To direct.
  • step 63 it is determined which button 46 or 47 has been pressed. If the fade-in point detection instruction 46 is pressed, the process proceeds to step 64.
  • the image level detection unit 5 and the microcontroller 3 which have performed the fade-in point detection in step 64, proceed to step 68, and write the index point in the detected frame and register the chapter. If it has not appeared in the past N seconds, the process proceeds to step 65, where normal reproduction is performed from the user designated point to detect a fade in point. Then, the index point is registered in the frame detected in step 68 and the chapter is registered.
  • step 66 If the fade-out point appears in the past N seconds, the image level detection unit 5 and the microcontroller 3 that were detecting the fade-out point proceed to step 68, and the index point is added to the detected frame. Register chapters. If it has not appeared in the past N seconds, the process proceeds to step 67, where normal reproduction is performed from the user designated point to detect a footpoint. Then, index points are added to the frames detected in step 68. Register the chapters.
  • step 69 it is determined whether or not the end button 15 has been pressed. If the end button 15 has not been pressed, the operation of striking the next index point is continued. If the end button 15 is pressed, the chapter registration mode is ended. For example, the display of the GUI screen 57 is ended, and the screen returns to the normal playback screen or the like.
  • the cue signal is reproduced from the frame by detecting the index signal inserted as the index point. It is possible to realize various functions such as performing commercial skip playback and editing in chapter units. In addition, it is possible to create efficient and highly accurate editing points when repeatedly performing commercial cuts in editing work.
  • the configuration in which the index point is hit near the playback frame instructed by the user is described using the GUI image 57.
  • fade-in / out is completely automatically performed without the user's instruction during playback. It is also possible to find all the points and hit an index point.
  • Embodiments 1 and 2 only the process related to the reproduction function shown in FIG. 1 has been described. However, this eliminates the configuration of the recording / reproducing apparatus having the recording function as shown in FIG. It is not something to do.
  • a fade in / out point may be automatically detected at the time of recording and an index point may be hit. This is because the video decoding unit is used to decode the image, so that the same processing can be performed during recording.
  • the GUI image in the chapter registration mode displays only the button for automatically detecting the fade-in / fade-out point, but a frame clearly indicated by a normal user
  • a button to hit the index point may be displayed, and the user's power S may be selected to perform an action.
  • the fade-in / fade-out point is described as detecting the black level of the image, that is, the part where the level decreases, and striking the index point, it detects the white level of the image, that is, the part where the level increases. It is also possible to have the mode in which the index signal is hit and switch operation.
  • an image level is detected when decoding a digital signal.
  • This process can be applied not only when recording and reproducing digital broadcast programs as digital information, but also when digitizing, recording and reproducing analog broadcast programs.
  • the above-described processing is applicable even when recording and reproducing an analog broadcast program without digitizing it. Specifically, it is possible to detect an image level of an analog video signal and hit an index point.
  • an A / D converter and an image level detection unit for the analog signal are required.
  • the A / D converter has a function of converting an analog video signal into a digital video signal, and is also included in, for example, the recording / reproducing unit 2.
  • the image level detection unit for analog signals is disposed, for example, at the position of the image level detection unit 7 in FIG. 1, and has a function of detecting the image level of the obtained digital video signal.
  • the obtained digital video signal is not encoded as it is in the MPEG2 stream, the above-mentioned processing using the DC component can not be performed.
  • the image level detection unit sumps each image level of a plurality of pixels constituting the image. Ring and calculate the average image level of one frame. If this average image level is used as a value corresponding to the above average value of DC components, the image level detection unit can detect the fade in point / fade out point.
  • the operations of the recording / reproducing apparatus 100 in the first and second embodiments are realized based on a computer program that defines the processing procedure shown in FIG. 4 or FIG.
  • the microcontroller 3 can operate each component of the recording and reproducing apparatus 100 by executing such a computer program to realize the above-described processing.
  • the computer program is recorded on a recording medium such as a CD-ROM and distributed in the field, or transmitted via a telecommunication line such as the Internet. Thereby, the computer system can be operated as a playback device having the same function as the above-described data processing device.
  • the recording / reproducing apparatus can detect the fade-in / fade-out point by detecting the level of the image, and can detect the boundary of the video such as the boundary between the main program and the commercial with high accuracy. . By registering this boundary as an index point, it is possible to obtain a recording and reproducing apparatus capable of efficiently performing later editing work.

Abstract

 テレビ放送等の映像に含まれるコマーシャルのカット等を行う際に番組本編とコマーシャルの境界を高精度に検出可能とする。  データ処理装置は、複数の画像から構成される映像の信号を受け取り、信号に基づいて所定の画像の信号レベルを検出する画像レベル検出部と、画像のデータを記憶するフレーム記憶部と、インデックス情報を付加するコントローラとを有する。この画像レベル検出部は、連続する複数の画像の各信号レベルに基づいて映像の切り替わり点を特定し、コントローラは切り替わり点に対応するデータストリーム内のデータ位置にインデックス情報を付加する。                                                                         

Description

明 細 書
データ処理装置
技術分野
[0001] 本発明は、デジタル放送等の映像信号を再生する技術に関する。
背景技術
[0002] デジタル化されて伝送される映像や音声といった情報を光ディスク等の記録媒体に 記録するデジタル記録再生装置が実用化されている。これら記録媒体に記録される デジタル映像ビットストリームは、その記録媒体容量を効率的に利用するために、例 えば MPEG2 (Motion Picture Experts Group)等により、フレーム内データ圧 縮やフレーム間データ圧縮等により圧縮されて記録されることが一般的である。
[0003] また、デジタル再生装置により、記録された記録媒体を再生する際には、特別に頭 出しをして再生したいような再生開始位置をメモリや記録媒体に保存しておき、ユー ザの好みに応じて自由に設定した再生開始位置から頭出し再生を行うことが可能で ある。また、特に複数回の書き換えが可能なデジタル記録再生装置においては、ュ 一ザの好みに応じて、記録した映像や音声を切り取ったり、結合したりする編集機能 を実現することが特に要望され、実用化されている。また、この編集作業においては 、特に TV放送から記録した番組に揷入されるコマーシャルを切り取る編集を行うこと が多く想定される。
[0004] また、同じような考え方で、再生時にコマーシャル部分を早送りによりスキップしたい という要望も存在する。いずれも TV放送から記録した番組の本編と挿入されたコマ 一シャルの境界を自動的に検出することが必要となる。したがって、 TV放送の番組と コマーシャル部分の境界で記録した映像音声信号にインデックス点を打ち、再生時 に自動的に早送りを行ってスキップするといつた記録再生装置が考案されている。
[0005] 以下、図 7を参照しながら、従来の記録再生装置 170の構成および動作を説明す る。
[0006] 図 7は、従来の記録再生装置 170の機能ブロックの構成を示す。記録再生装置 17 0は、アンテナ 71と、デジタルチューナー 72と、記録再生部 73と、マイクロコントロー ラ 3と、ストリーム分離部 4と、ビデオデコード部 5と、フレーム記憶部 6と、 GUI (Graph ical User Interface)混合部 8と、ビデオ出力端子 9と、オーディオデコード部 10と 、オーディオ出力端子 11とを有する。記録媒体 1として、例えば光ディスクを想定する
[0007] 記録再生装置 170では、アンテナ 71で受信した放送波を、デジタルチューナー 72 で受信し、映像音声を含むデジタルビットストリームに復調する。記録再生部 73はデ ジタルビットストリーム信号を記録するための信号に変換して記録媒体 1に記録する。 記録媒体 1に記録されるデジタル映像 ·音声信号は記録されると同時に並行して、ス トリーム分離部 4で映像と音声ビットストリームにそれぞれ分離される。そして、それぞ れビデオデコード部 5およびオーディオデコード部 10へ入力される。ビデオデコード 部 5では、入力されたビデオビットストリームはフレーム記憶部 6を用いてデコードされ 、再生デコード画像を得る。
[0008] デコードされた画像は、 GUI混合部 8において、必要な場合にはユーザとの機器操 作インターフェイスを画面上に表示させる GUI画像を付加して、ビデオ出力端子 9か ら出力され、 TV等に接続される。オーディオデコード部 10でデコードされたオーディ ォ信号はオーディオ出力端子 11から出力され、 TV等に接続される。この時、オーデ ィォのモードがステレオからモノラル、あるいはデュアルモノラル(2ケ国語放送)とレ、う ように変化する時をオーディオデコード部 10で検出し、マイクロコントローラ 3へ通知 する。
[0009] マイクロコントローラ 3は、記録時に検出したオーディオのモードの変化点において 、インデックス点を示すインデックス信号を記録媒体 1に記録する。したがって、放送 番組の本編がデュアルモノラル(2ケ国語)またはモノラルであり、コマーシャルがステ レオ放送であった場合あるいはその逆のような場合において、本編とコマーシャルの 境界でインデックス信号を記録することが可能となる。
[0010] したがって、再生時にインデックス信号を検出する毎に通常再生から早送り再生、 早送り再生から通常再生と再生モードを自動的に切り換えることで、コマーシャルの 自動早送り再生や、コマーシャル以外の自動早送り再生といった機能が実現できる。
[0011] 本例ではデジタル放送と光ディスク記録媒体を利用した記録再生装置を例にあげ たが、アナログ放送とデジタル VTR等の記録再生装置であってもまったく同様の構 成で自動コマーシャルスキップ再生機能が実現できる。また、インデックス点の位置( インデックス信号が検出されたデータ位置)に基づいてユーザが編集を行って、コマ 一シャルカット機能を実現することも可能である。
特許文献 1 :特開平 6— 295488号公報
発明の開示
発明が解決しょうとする課題
[0012] しかし、この場合オーディオモードの切り替わり点の検出により本編とコマーシャノレ の境界を検出するため、映像の切り替わり点と完全に一致することは少ない。そのた め 1フレーム単位でコマーシャルカット編集を実現したい場合などは、コマーシャル境 界がずれてしまい、コマーシャルの 1シーンが一瞬だけ挿入されたり、本編がカットさ れてしまったりする等の問題があった。また、オーディオのモードが切り替わるコマ一 シャルのみにしか適用できず、アナログ放送の映画番組(ニケ国語放送)等を除く多 くの放送では適応できないとレ、う問題もあった。
[0013] 本発明の目的は、記録再生装置においてコマーシャルスキップやコマーシャルカツ ト編集に用いるために自動的に検出するコマーシャルと本編の境界を、 1フレーム単 位の高い精度で検出することである。
課題を解決するための手段
[0014] 本発明によるデータ処理装置は、複数の画像から構成される映像の信号を受け取 り、前記信号に基づいて所定の画像の信号レベルを検出する画像レベル検出部と、 前記画像のデータを記憶するフレーム記憶部と、インデックス情報を付加するコント口 一ラとを有する。前記画像レベル検出部は、連続する複数の画像の各信号レベルに 基づいて映像の切り替わり点を特定し、前記コントローラは前記切り替わり点に対応 する前記データストリーム内のデータ位置にインデックス情報を付加する。
[0015] 前記画像レベル検出部は、前記各信号レベルに基づいて、前記映像のフェードィ ンの開始点、および、フェードアウトの終了点の少なくとも一方を検出し、前記切り替 わり点として特定してもよい。
[0016] 前記コントローラは、前記切り替わり点の検出を開始する検出指示を出力し、前記 画像レベル検出部は、前記検出指示に基づいて前記映像のフェードインの開始点、 および、フェードアウトの終了点の少なくとも一方を検出し、前記切り替わり点として特 定してもよい。
[0017] 前記データ処理装置は、前記映像上に GUI画像を混合する GUI混合部をさらに 備えていてもよレ、。前記コントローラは、前記 GUI混合部を介して与えられた指示に 基づいて前記検出指示を出力してもよい。
[0018] 前記画像レベル検出部は、前記検出指示を受け取った後の最初に検出された前 記映像のフェードインの開始点およびフェードアウトの終了点の一方を、前記切り替 わり点として特定してもよい。
[0019] 前記コントローラは、前記切り替わり点に基づいて、前記映像のチャプターを設定し てもよい。
[0020] 前記データ処理装置は、前記映像上に GUI画像を混合する GUI混合部をさらに 備えていてもよい。前記画像レベル検出部は、前記 GUI混合部を介して与えられた フェードインおよび/またはフェードアウトの検出指示に基づいて、前記映像のフエ ードインの開始点およびフェードアウトの終了点の一方を検出し、前記切り替わり点と して特定してちょレ、。
[0021] 前記映像の信号は、前記画像の DC成分と AC成分とに分解したデータに基づいて 符号化されたデジタル信号であり、前記画像レベル検出部は、前記所定の画像の D
C成分に基づレ、て前記信号レベルを検出してもよレ、。
[0022] 前記映像の信号はアナログ信号であり、前記画像レベル検出部は、前記所定の画 像を構成する複数の画素の各信号レベルに基づレ、て、前記所定の画像の信号レべ ルを検出してもよい。
[0023] 前記データ処理装置は、映像データをデコードして前記信号を生成するビデオデ コード部をさらに備えていてもよい。前記画像レベル検出部は、前記ビデオデコード 部によつて生成された前記信号を受け取つてもよい。
[0024] 前記データ処理装置は、前記映像データを含むデータストリームが記録された記 録媒体から、前記データストリームを再生する再生部をさらに備えていてもよい。前記 ビデオデコード部は、前記再生部によって再生された前記データストリームから前記 映像データを取得してもよレ、。
[0025] 前記データ処理装置は、放送波を復調して前記映像データを含むデータストリーム を出力する受信部をさらに備えていてもよい。前記ビデオデコード部は、前記受信部 によって出力された前記データストリームから前記映像データを取得してもよい。
[0026] 前記画像レベル検出部は、前記映像の全区間のうちの所定区間において、前記切 り替わり点を特定してもよい。
[0027] 前記画像レベル検出部は、ユーザが指定した区間および予め設定された区間の 一方の区間を前記所定区間として、前記切り替わり点を特定してもよい。
[0028] 前記データ処理装置は、前記映像上に GUI画像を混合する GUI混合部をさらに 備えていてもよレ、。前記コントローラは、前記映像の全区間のうちの所定区間に対す る前記インデックス情報の設定指示を受け取って、検出指示および混合指示を出力 し、前記画像レベル検出部は、前記検出指示に基づいて、前記所定区間において 前記切り替わり点を特定し、前記 GUI混合部は、前記混合指示に基づいて前記所 定区間の前記映像を出力するとともに、特定された前記切り替わり点の存在を表示し てもよい。
発明の効果
[0029] 本発明によれば、再生時にデコード部でデコードされた画像のレベルに基づいて フェードイン点またはフェードアウト点を検出することにより、番組本編とコマーシャノレ との境界を高い精度で検出することができる。特にユーザが指示した再生地点付近 に存在する境界を検出して、その境界の位置を特定するインデックス信号を記録す ることで、後に行う編集作業を高精度かつ効率的に行うことができる。
図面の簡単な説明
[0030] [図 1]実施形態 1による記録再生装置 100の機能ブロックの構成を示す図である。
[図 2]GUI混合部 8によって生成される GUI画像 12の例を示す図である。
[図 3] (a)および (b)は、画像レベル検出部 7の出力信号を示す図である。
[図 4]実施形態 1による記録再生装置のチャプター登録モードの動作手順を示すフロ 一チャートである。
[図 5]実施形態 2による GUI画像 57の例を示す図である。 園 6]実施形態 2による記録再生装置のチャプター登録モードの動作手順を示すフロ 一チャートである。
園 7]従来の記録再生装置 170の機能ブロックの構成を示す。
符号の説明
1 記録媒体
2 再生部
3 マイクロコントローラ
4 ストリーム分離部
5 ビデオデコーダ
6 フレーム記憶部
7 画像レベル検出部
8 GUI混合部
9 映像出力端子
10 オーディオテコータ
11 音声出力端子
12 GUI画像
13 ウィンドウ画面
14 チャプター設定ボタン
15 終了ボタン
16 時間情報
17、 18 ストリーム全体の現在位置表示
19 インデックス信号の位置
20〜45 画像レベル検出部の出力
46 In点検出ボタン
47 Out点検出ボタン
71 アンテナ
72 デジタ/レチューナー
73 記録再生部 発明を実施するための最良の形態
[0032] 以下、添付の図面を参照して、本発明によるデータ処理装置の実施形態を説明す る。実施形態 1および 2においては、データ処理装置は、記録媒体に録画された映像 および音声等の再生処理が可能であるとともに、それらの編集処理も可能である。一 般に編集処理は記録機能を利用するため、以下の実施形態においてはデータ処理 装置を記録再生装置として説明する。
[0033] (実施の形態 1)
図 1は、本実施形態による記録再生装置 100の機能ブロックの構成を示す。記録再 生装置 100は、記録再生部 2と、マイクロコントローラ 3と、ストリーム分離部 4と、ビデ ォデコード部 5と、フレーム記憶部 6と、画像レベル検出部 7と、 GUI混合部 8と、ビデ ォ出力端子 9と、オーディオデコード部 10と、音声出力端子 11と、アンテナ 12および 13と、受信部 14とを備えている。
[0034] 記録再生装置 100は、映像および音声を含む番組のデータを記録媒体 1に蓄積す ること力 Sできる。このような番組は、デジタル放送波やアナログ放送波から取得できる
[0035] 図 1においては、アンテナ 12はデジタル放送波を受け、アンテナ 13はアナログ放 送波を受けて、その放送波を受信部 14に送る。受信部 14は、アンテナ 12からデジタ ル放送波を受けたときはそのデジタル放送波を復調して、映像音声を含む符号化さ れたデジタルビットストリームを取得し出力する。また、アンテナ 13からアナログ放送 波を受けたときはそのアナログ放送波を復調して、映像音声を含む、符号化されてい ないデジタルビットストリーム(レ、わゆるベースバンド信号)を生成し、出力する。
[0036] 記録再生部 2は、符号ィ匕されたデジタルビットストリームを受け取ったときは、そのデ ジタルビットストリームに所定の処理をカ卩えて記録媒体 1に書き込む。所定の処理とは 、再生時において、受け取った順序でそのデジタルビットストリームを出力するための 時刻情報の付カ卩処理などである。
[0037] また記録再生部 2は、符号化されていないデジタルビットストリームを受け取ったとき は、そのビットストリームを MPEG規格等に基づいて圧縮符号化して記録媒体 1に書 き込む。 [0038] 以下では記録媒体 1には映像および音声を含む番組が既に格納されているとする 。本実施形態においては、記録媒体 1はブルーレイディスクに代表される光ディスク であるとして説明する。なお、一般的には光ディスクは可換媒体であるため、記録媒 体 1は記録再生装置 100の構成要素ではなレ、が、例えば記録媒体 1がハードデイス クのような非可換媒体であれば記録再生装置 100の構成要素として取り扱えばよい。
[0039] 本実施形態による記録再生装置 100の特徴のひとつは、映像を構成するフレーム 画像の画像レベルに基づいてフェードイン開始点やフェードアウト終了点を自動的 に検出することにある。検出された開始点や終了点は映像の切り替わり点として特定 されるので、ユーザは検出された点をコマーシャルと本編の境界点であるかを確認で きる。データ処理装置は、ユーザによって確認された映像の切り替わり点にインデック ス点を打つ(インデックス信号を揷入する)こと力 Sできる。ユーザは後に行われる編集 作業時等の任意のインデックス点から再生を開始し、編集等を実行できるため、作業 を効率的に行うことができる。なお、開始点、終了点、切り替わり点、境界点等は、い ずれも映像の構成単位を意味している。
[0040] 本明細書においては、フレーム画像が映像の構成単位であるとする。すなわち複 数のフレーム画像が所定の周波数で次々と切り替えられて映像が表示されるとする。 なお、映像の構成単位として挙げるフレーム画像は例であり、フィールド画像であつ てもよい。
[0041] 記録媒体 1に記録された、映像データや音声データを含むデータストリームは、マ イク口コントローラ 3の指示により再生部 2によって再生される。ここでレ、う「再生」とは、 記録媒体 1にレーザ光を放射して反射光を取得し、その反射光から記録媒体 1に記 録された情報を取得することをいう。記録媒体 1には記録対象の情報に応じて、ピット (またはマーク)が形成されており、ピットとピット以外の部分の光学的特性が異なるこ とを利用して、情報を記録し、記録された情報を再生することができる。
[0042] 再生されたデータストリームは、例えば複数の TSパケットから構成された MPEG2 -TS (Transport Stream)のようなビットストリームである。一般に TSパケットは通 常 4バイトのトランスポートパケットヘッダと、 184バイトのペイロードとから構成されて いる。パケットヘッダには、そのパケットの種類を特定するパケット識別子(パケット ID )が記述されている。例えば、ビデオ TSパケットの PIDは" 0x0020"であり、オーディ ォ TSパケットの PIDは" 0x0021 "である。ペイロードにはエレメンタリデータや付加情 報等が格納される。エレメンタリデータは、ビデオデータ、オーディオデータ等のコン テンッデータや、再生を制御するための制御データ等である。どのようなデータが格 納されているかは、パケットの種類に応じて異なる。
[0043] ストリーム分離部 4は、上述のパケット IDを利用することにより、映像データを含む T Sパケットと、音声データを含む TSパケットとを分離する。そして、分離された各パケ ットから取得される映像データおよび音声データを出力する。出力された映像データ はビデオデコード部 5でフレーム記憶部 6を用いてデコードされ、映像信号として GU I混合部 8に伝送される。 GUI混合部 8は、映像信号に対してユーザの機器操作のた めのインターフェイス画像の画像信号を重畳し、複合映像信号を生成する。複合映 像信号はビデオ出力端子 9から出力される。一方、音声データはオーディオデコード 部 10によりデコードされ、音声信号として音声出力端子 11から出力される。
[0044] 上述の手順にしたがって、記録再生装置 100は記録媒体 1に記録された映像や音 声等の情報を再生して映像 (画像)信号や音声信号を出力する。特に GUI混合部 8 は再生対象となる映像にユーザに機器操作を行わせるためのインターフェイス画像 を重畳させることができる。このインターフェイス画像を通して、ユーザは任意の映像 意の映像フレームから頭出し再生を可能とするためのインデックスを設定することを レ、い、具体的には特定のデータ位置にインデックス信号 (インデックスを示す情報)を 付加または挿入することをいう。インデックス信号として、記録媒体上のアドレス情報 を利用することができる。すなわち、インデックス点を打つべきデータ位置のアドレス 情報を記録媒体 1に別途記録しておけばよい。記録再生装置 100はそのアドレス情 報を再生時に読み出すことにより、そのアドレス情報によって特定される記録媒体 1 上の位置からビットストリームを再生することができる。インデックス信号は、例えばマ イク口コントローラ 3の指示に基づいて付力卩し揷入される。
[0045] インデックス点は上記のように容易に頭出しをして再生する場合のみならず、ストリ ームを切断する編集作業時においても利用される。すなわちインデックス点は、その データ位置でストリームを分割したり、あるインデックス点からあるインデックス点まで の間を削除したり、インデックス点からインデックス点までの間をチャプターと定義し、 チャプター単位で順序を並べ替えたり削除する等の編集作業時に利用される。これ ら編集作業を行う際には、高精度なフレーム単位でインデックス点を設定できることが 好ましい。
[0046] 図 2は、 GUI混合部 8によって生成される GUI画像 12の例を示す。この GUI画像 1 2は、 TV等の表示装置の画面に表示される。本例ではウィンドウ 13内に再生画像を はめ込み、再生動作を行うとこの領域に再生画像が表示される。画面上にはチヤプタ 一設定ボタン 14を設け、リモコン操作等により任意のフレームにインデックス信号を 揷入して、チャプターを作成することが可能である。この時ユーザは、リモコン操作に より早送りやスロー、コマ送りといった操作で所望のフレームを画面上で確認しながら 探すことができ、適切なフレームに対してインデックス点を設定できる。チャプターの 設定は、その先頭および末尾に対応するインデックス点を特定すればよい。
[0047] ユーザが画面上で終了ボタン 15を押下して作業の終了を指示すると、全体画像 1 2には、例えば記録番組の先頭からの時間を示す表示窓 16が表示される。また画面 上には、ストリーム全体の再生時間に対応したバー 17が表示される。バーに対して はストリーム中の現在の再生点 18が示される。これらの表示に基づいて、ユーザは所 望の再生地点を探す際にこれらの情報を補助的に利用できる。さらにバーに対して は、インデックス信号が挿入されたストリーム内の時間位置を模式的に表示している。
GUI画像 12を通じて、基本的にはユーザが指定した自由な再生位置にインデックス 信号を記録してチャプターを作成することができる。
[0048] 本実施形態においては、フェードイン Zアウト点検出を可能とするモードに切り換え た状態、または常にフェードイン Zアウト点を検出可能な状態において、ユーザがチ ャプター作成ボタンを押した場合にその前後 N秒間のフェードイン/アウト地点を自 動的に検出してチャプターを打つことが可能である。 Nはユーザが自由に設定できて もよレ、し、予め指定されていてもよレ、。上述のように、チャプターの作成時にはインデ ックス信号の記録 (インデックス点の設定)が行われるため、任意の区間にインデック ス点を設定できる。すなわち、チャプター作成ボタンの押下により、ユーザからのイン デッタス点の設定およびチャプターの作成が指示される。
[0049] ここで、図 3を参照しながらフェードイン/アウト点検出の仕組みを説明する。図 3 (a )および (b)は、画像レベル検出部 7の出力信号を示す。画像レベル検出部 7は、図 3 (a)の時刻 20〜32および図 3 (b)の時刻 33〜45のタイミングで画像のレベルを検 出し、その結果を出力している。この「画像」とは映像の構成単位であり、フレームな どとも呼ばれる。複数の画像が所定の周波数(例えば NTSC方式では 30Hz)で次々 と切り替えられることにより、映像として表示される。図示される各時刻の間隔は映像 1 フレームあたりの表示時間である。すなわち図 3 (a)および (b)は、デコードした画像 の画像レベルの変化を 1フレーム毎に表してレ、る。
[0050] 画像レベルは、例えば MPEG2ストリームの場合は 8x8画素で構成される DCT(Di screte Cosine Transform)ブロックの DC成分に基づいて計算される。 MPEG2 ビデオエレメンタリストリームでは、映像信号を圧縮し、ピクチャ層、スライス層、マクロ ブロック層の順に小さくなる階層構造で画像データが伝送される。 DCTブロックはマ クロブロック層において伝送される。たとえばフレーム構造では通常 1フレーム画面を 8x8画素の DCTブロックで分割した数に相当する個数だけ伝送される。
[0051] DCTブロックには、 8x8画素の平均画像レベルを表す DC成分と、 8x8画素の周波 数成分を表す AC係数が順に伝送される。ビデオデコード部 5におレ、てマクロブロック 層のデータをデコードするときには、たとえば画像レベル検出部 7は、 1フレーム画面 期間において DC成分の値を加算し、あるいは平均値を計算することで、 1フレーム 全体の DC成分の値(DCTブロック数分の画像レベルの合計値または平均値)を得 ること力 Sできる。図 3 (a)および(b)では、このようにして得られた値が各フレームの画 像レベルとして記載されてレヽる。
[0052] 例えば図 3 (a)は番組本編がフェードアウトしながら黒画面になり、直後にコマーシ ャルに切り替わる場合を示してレ、る。画像レベルはフレーム 21から 24のフレーム毎 に滑らかに低くなり、フレーム 25、 26、 27等ではほぼ 0に近づいた状態(フェードァゥ ト終了時)から、コマーシャルに入った最初のフレーム 28で急激にレベルが大きくな つている。例えば画像レベル検出部 7は、点線で示すような 3段階のレベルを設けて 画像レベルを監視する。そして、画像レベルがフレーム毎に単調減少を続け、最もレ ベルの低レ、ゾーンに入った場合をフェードアウトしてレ、る状態と検出することは容易 に可能である。また最もレベルの低いゾーンにあるフレーム 27から、例えば 2段階を 超えてレベルが大きくなつているフレーム 28については、黒画面から急に映像が始 まったことを示している。したがって、この例の場合はアウト点と矢印で示すように、フ レーム 27をフェードアウトした映像の最後のフレームと判定することができる。
[0053] 同様に、図 3 (b)にはフェードイン点を検出する場合のしくみを示している。点線で 示す 3段階のレベルで分けられたゾーンを 1フレームのうちに越えて最もレベルの低 いゾーンに入ったフレームをフレーム 38とする。その後、フレーム 39力、ら 43に力、けて 、毎フレーム毎に画像レベルは単調増加を続けている。したがって、矢印イン点で示 すようにフレーム 38までがフェードイン開始前であり、フレーム 38をフェードイン点(フ エードイン開始時)と判定することが可能である。
[0054] これら 3段階のレベル設定や判定方法は上で述べた以外にも様々な調整や判定 精度を変えることでフェードイン/アウト点を検出することができる。
[0055] 次に、図 4を参照しながら、本実施形態による記録再生装置 100の動作を説明する 。図 4は、記録再生装置 100のチャプター登録モードの動作手順を示す。チャプター 登録モードの開始時は、ユーザの指示によるインデックス点を打つ処理に入る。ステ ップ 49において、図 2に示す GUI画像 12を表示して通常再生開始を行うと共に、ス テツプ 50で画像レベル検出部によるフェードイン/アウト点検出可能状態になる。さ らにステップ 51においてユーザがシーンを探すために特殊再生指示を行った場合 は早送りやスロー、コマ送りといった再生動作に追従する。ユーザは再生画面をみて 、インデックス点を打ちたい付近でフェードイン/アウト点を見つけた場合、またはフ エードイン Zアウトがそろそろ出現しそうであると判断した場合に、ステップ 52におい てチャプター作成を指示する。過去 N秒以内にフェードイン Zアウト点が出現してい た場合はステップ 55に進み、ステップ 55においてフェードイン/アウト点検出を行つ ていた画像レベル検出部 5およびマイクロコントローラ 3は、その検出したフレームに インデックス点を打ちチャプターを登録する。また過去 N秒以内に出現していなかつ た場合はステップ 54に進み、ユーザ指示点から通常再生を行ってフェードイン/ァ ゥト点を検出する。そして、ステップ 55に進んで検出したフレームにインデックス点を 打ちチャプターを登録する。
[0056] その後、ステップ 56において終了ボタン 15が押下されたか否かが判断され、押下 されていなければさらに次のインデックス点を打つ動作を継続する。終了ボタン 15が 押された場合はチャプター登録モードを終了する。例えば、 GUI画面 12の表示を終 了し、通常再生画面等に戻る。
[0057] 上述のステップ 53および 55によれば、おおよその場所を探して再生しチャプター 作成ボタンを押すだけで、 1フレーム単位で正確に所望のフレームにインデックス点 を打ってチャプターを作成することが可能となる。よって、ユーザがコマーシャルとの 境界やシーンの変わり目等でフェードイン/アウト点を探してスローやコマ送りを繰り 返していた手間がなくなるため、利便性が大幅に向上する。
[0058] インデックス点として挿入されたインデックス信号を検出することにより、そのフレー ムから頭出し再生をする、コマーシャルスキップ再生を行う、チャプター単位の編集を 行う等の様々な機能を実現することが可能である。特に編集作業にぉレ、てコマーシ ャルカットを繰り返し行う際に、効率的で高精度な編集点作成を行うことが可能となる
[0059] なお、本実施形態では GUI画像 12を用いて、ユーザが指示したフレーム付近でィ ンデッタス点を打つ構成を説明したが、再生中にユーザの指示なく完全に自動的に フェードイン/アウト点をすベて探してインデックス点を打つことも可能である。
[0060] (実施形態 2)
本実施形態による記録再生装置の構成は、実施形態 1と全く同様であり、図 1に示 される構成を持つ。よって本実施形態による記録再生装置は、引き続き「記録再生装 置 100」として説明する。実施形態 1では、 GUI画像 12 (図 2)を利用して、 1つのチヤ プター作成指示ボタン 14でフェードイン Zまたはフェードアウト点を探してインデック ス点を打つとして説明した。
[0061] 本実施形態においては、ユーザがフェードイン点、またはフェードアウト点を明示的 に指示して検出を行レ、、インデックス点を打つことが可能である。図 5は、本実施形態 による GUI画像 57の例を示す。 GUI画像 57が実施形態 1による GUI画像 12 (図 2) と異なるのは、チャプター設定ボタン 14に代えてイン点検出ボタン 46およびアウト点 検出ボタン 47を備えていることにある。それぞれのボタンを選択してユーザが指示す ることで、記録再生装置 100はフェードイン点およびフェードアウト点を別個に検出し 、それぞれに対してインデックス点を打つことができる。
[0062] 次に、本実施形態による記録再生装置 100の動作を説明する。図 6は、記録再生 装置 100のチャプター登録モードの動作手順を示す。チャプター登録モードの開始 時は、ユーザの指示によるインデックス点を打つモードに入る。ステップ S59におい て、図 5に示す GUI画像 57を表示して通常再生開始を行うと共に、ステップ 60にお いて画像レベル検出部によるフェードイン/アウト点検出状態になる。さらにステップ 61においてユーザがシーンを探すために特殊再生指示を行った場合は早送りゃス ロー、コマ送りといった再生動作に追従する。ユーザは再生画面をみて、インデックス 点を打ちたい付近でフェードイン Zアウト点を見つけた場合、またはフェードイン/ァ ゥトがそろそろ出現しそうであると判断した場合に、ステップ 62においてチャプター作 成を指示する。
[0063] このとき、ユーザはフェードイン点を見つけたいの力、フェードアウト点を見つけたい のかを選択してボタン 46または 47を押す。ステップ 63において、いずれのボタン 46 または 47が押されたかを判定し、フェードイン点検出指示 46が押された場合はステ ップ 64に進む。ステップ 64においてフェードイン点検出を行っていた画像レベル検 出部 5とマイクロコントローラ 3は、ステップ 68に進んでその検出したフレームにインデ ックス点を打ちチャプターを登録する。また過去 N秒以内に出現していなかった場合 はステップ 65に進み、ユーザ指示点から通常再生を行ってフェードイン点を検出す る。そしてステップ 68において検出したフレームにインデックス点をうちチャプターを 登録する。
[0064] 同様にフェードアウト点検出指示 47が押された場合は、ステップ 66に進む。フエ一 ドアウト点検出を行っていた画像レベル検出部 5とマイクロコントローラ 3は、過去 N秒 以内にフェードアウト点が出現していた場合はステップ 68に進んで、その検出したフ レームにインデックス点をうちチャプターを登録する。また過去 N秒以内に出現してい なかった場合はステップ 67に進み、ユーザ指示点から通常再生を行ってフヱードア ゥト点を検出する。そしてステップ 68において検出したフレームにインデックス点をう ちチャプターを登録する。
[0065] その後、ステップ 69において終了ボタン 15が押下されたか否かが判断され、押下 されていなければさらに次のインデックス点を打つ動作を継続する。終了ボタン 15が 押された場合はチャプター登録モードを終了する。例えば、 GUI画面 57の表示を終 了し、通常再生画面等に戻る。
[0066] 上述のステップ 63〜68によれば、おおよその場所を探して再生し、かつフェードィ ン点カ、フェードアウト点かを選択してボタンを押すだけで 1フレーム単位で正確に所 望のフレームにインデックス点を打つてチャプターを作成することが可能となる。すな わち、番組本編からコマーシャルへ切り替わる点ではフェードアウトされることが多ぐ コマーシャルから番組本編へ切り替わる点ではフェードインされることが多いので、こ れらの場所でインデックス点を打ちたい場合、あら力、じめフェードインかフェードアウト を選択して確実に番組境界を検出することが可能である。また、番組本編とコマーシ ャルの境界だけでなぐ例えば歌手のプロモーションビデオの最初と最後、あるいは 映像シーンの最初と最後といったフェードインで始まりフェードアウトで終わるようなフ レームにインデックス点を効率的に打つことができる。よって、ユーザがコマーシャル との境界やシーンの変わり目等でフェードイン/アウト点を探してスローやコマ送りを 繰り返していた手間がなくなるため、利便性が大幅に向上する。
[0067] インデックス点が打たれた後は、実施形態 1におレ、ても説明したと同様、インデック ス点として挿入されたインデックス信号を検出することにより、そのフレームから頭出し 再生をする、コマーシャルスキップ再生を行う、チャプター単位の編集を行う等の様 々な機能を実現することが可能である。また、編集作業においてコマーシャルカットを 繰り返し行う際に、効率的で高精度な編集点作成を行うことも可能となる。
[0068] なお、本実施形態においても GUI画像 57を用いてインデックス点をユーザが指示 した再生フレーム付近で打つ構成を説明したが、再生中にユーザの指示なく完全に 自動的にフェードイン/アウト点をすベて探してインデックス点を打つことも可能であ る。
[0069] 実施形態 1および 2においては、図 1に示す再生機能に関連する処理のみを説明 した。しかしこれは、従来例図 7のような記録機能をもつ記録再生装置の構成を排除 するものではない。記録機能を利用してインデックス点を打つ態様としては、例えば 記録時において自動的にフェードイン/アウト点を検出してインデックス点を打つても よい。ビデオデコード部を用いて画像をデコードしているため、記録時にも同様の処 理が可能だからである。
[0070] なお、実施形態 1および 2共に、チャプター登録モードの GUI画像では、フェードィ ン /フェードアウト点を自動的に検出するボタンのみを表示しているが、通常のユー ザが明確に指示したフレームにインデックス点を打つボタンを同時に表示し、ユーザ 力 Sさらに動作の選択を行って実行させてもよい。
[0071] また、フェードイン、フェードアウト点を画像が黒レベル、すなわちレベルが低くなる 部分を検出してインデックス点を打つとして説明したが、画像が白レベル、すなわち レベルが高くなる部分を検出してインデック信号を打つモードを併せ持ち、切り換え 動作させてもよい。
[0072] また実施形態 1および 2共に、デジタル信号をデコードする際に画像レベルを検出 する。この処理は、デジタル放送番組をデジタル情報として記録し、再生するときの みならず、アナログ放送番組をデジタル化して記録し、再生するときであっても適用 できる。
[0073] さらに、上述の処理は、アナログ放送番組をデジタル化することなく記録し再生する ときであっても適用可能である。具体的には、アナログ映像信号の画像レベルを検出 して、インデックス点を打つことができる。
[0074] アナログ映像信号の映像にインデックス点を打つときには、 A/Dコンバータとアナ ログ信号用の画像レベル検出部が必要である。この A/Dコンバータは、アナログ映 像信号をデジタル映像信号に変換する機能を有しており、たとえば記録再生部 2にも 含まれている。
[0075] またアナログ信号用の画像レベル検出部は、たとえば図 1の画像レベル検出部 7の 位置に配置され、得られたデジタル映像信号の画像レベルを検出する機能を有して いる。ただし、得られたデジタル映像信号は MPEG2ストリームではなぐ符号化され ていないため、上述の DC成分を利用した処理はできない。
[0076] そこで画像レベル検出部は、画像を構成する複数の画素の各画像レベルをサンプ リングし、 1フレームの平均画像レベルを算出する。この平均画像レベルを上述の DC 成分の平均値に対応する値として利用すれば、画像レベル検出部はフェードイン点 /フェードアウト点を検出できる。
[0077] 実施形態 1および 2における記録再生装置 100の動作は、図 4または図 6に示す処 理手順を規定したコンピュータプログラムに基づいて実現される。例えばマイクロコン トローラ 3は、そのようなコンピュータプログラムを実行することによって記録再生装置 100の各構成要素を動作させ、上述した処理を実現することができる。コンピュータ プログラムは、 CD— ROM等の記録媒体に記録して巿場に流通され、または、インタ 一ネット等の電気通信回線を通じて伝送される。これにより、コンピュータシステムを、 上述のデータ処理装置と同等の機能を有する再生装置として動作させることができる
産業上の利用可能性
[0078] 本発明による記録再生装置は、画像のレベルを検出することによってフェードイン /フェードアウト点を検出し、番組本編とコマーシャルとの境界等の映像の境界を高 い精度で検出することができる。この境界をインデックス点として登録することにより、 後の編集作業を効率的に行うことが可能な記録再生装置を得ることができる。

Claims

請求の範囲
[1] 複数の画像から構成される映像の信号を受け取り、前記信号に基づいて所定の画 像の信号レベルを検出する画像レベル検出部と、
前記画像のデータを記憶するフレーム記憶部と、
インデックス情報を付加するコントローラと、
を有するデータ処理装置であって、
前記画像レベル検出部は、連続する複数の画像の各信号レベルに基づレ、て映像 の切り替わり点を特定し、前記コントローラは前記切り替わり点に対応する前記デー タストリーム内のデータ位置にインデックス情報を付加する、データ処理装置。
[2] 前記画像レベル検出部は、前記各信号レベルに基づいて、前記映像のフェードィ ンの開始点、および、フェードアウトの終了点の少なくとも一方を検出し、前記切り替 わり点として特定する、請求項 1に記載のデータ処理装置。
[3] 前記コントローラは、前記切り替わり点の検出を開始する検出指示を出力し、
前記画像レベル検出部は、前記検出指示に基づいて前記映像のフェードインの開 始点、および、フェードアウトの終了点の少なくとも一方を検出し、前記切り替わり点と して特定する、請求項 1に記載のデータ処理装置。
[4] 前記映像上に GUI画像を混合する GUI混合部をさらに備え、
前記コントローラは、前記 GUI混合部を介して与えられた指示に基づいて前記検 出指示を出力する、請求項 3に記載のデータ処理装置。
[5] 前記画像レベル検出部は、前記検出指示を受け取った後の最初に検出された前 記映像のフェードインの開始点およびフェードアウトの終了点の一方を、前記切り替 わり点として特定する、請求項 4に記載のデータ処理装置。
[6] 前記コントローラは、前記切り替わり点に基づいて、前記映像のチャプターを設定 する、請求項 1に記載のデータ処理装置。
[7] 前記映像上に GUI画像を混合する GUI混合部をさらに備え、
前記画像レベル検出部は、前記 GUI混合部を介して与えられたフェードインおよ び/またはフェードアウトの検出指示に基づいて、前記映像のフェードインの開始点 およびフェードアウトの終了点の一方を検出し、前記切り替わり点として特定する、請 求項 6に記載のデータ処理装置。
[8] 前記映像の信号は、前記画像の DC成分と AC成分とに分解したデータに基づいて 符号化されたデジタル信号であり、
前記画像レベル検出部は、前記所定の画像の DC成分に基づいて前記信号レべ ルを検出する、請求項 1に記載のデータ処理装置。
[9] 前記映像の信号はアナログ信号であり、
前記画像レベル検出部は、前記所定の画像を構成する複数の画素の各信号レべ ルに基づいて、前記所定の画像の信号レベルを検出する、請求項 1に記載のデータ 処理装置。
[10] 映像データをデコードして前記信号を生成するビデオデコード部をさらに備え、 前記画像レベル検出部は、前記ビデオデコード部によって生成された前記信号を 受け取る、請求項 1に記載のデータ処理装置。
[11] 前記映像データを含むデータストリームが記録された記録媒体から、前記データス トリームを再生する再生部をさらに備え、
前記ビデオデコード部は、前記再生部によって再生された前記データストリームか ら前記映像データを取得する、請求項 1に記載のデータ処理装置。
[12] 放送波を復調して前記映像データを含むデータストリームを出力する受信部をさら に備え、
前記ビデオデコード部は、前記受信部によって出力された前記データストリームか ら前記映像データを取得する、請求項 1に記載のデータ処理装置。
[13] 前記画像レベル検出部は、前記映像の全区間のうちの所定区間において、前記切 り替わり点を特定する、請求項 3に記載のデータ処理装置。
[14] 前記画像レベル検出部は、ユーザが指定した区間および予め設定された区間の 一方の区間を前記所定区間として、前記切り替わり点を特定する、請求項 13に記載 のデータ処理装置。
[15] 前記映像上に GUI画像を混合する GUI混合部をさらに備え、
前記コントローラは、前記映像の全区間のうちの所定区間に対する前記インデック ス情報の設定指示を受け取って、検出指示および混合指示を出力し、 前記画像レベル検出部は、前記検出指示に基づいて、前記所定区間において前 記切り替わり点を特定し、
前記 GUI混合部は、前記混合指示に基づいて前記所定区間の前記映像を出力す るとともに、特定された前記切り替わり点の存在を表示する、請求項 1に記載のデー タ処理装置。
PCT/JP2005/022929 2004-12-27 2005-12-14 データ処理装置 WO2006070601A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/722,721 US20080092048A1 (en) 2004-12-27 2005-12-14 Data Processor
JP2006550666A JP4932493B2 (ja) 2004-12-27 2005-12-14 データ処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004377034 2004-12-27
JP2004-377034 2004-12-27

Publications (1)

Publication Number Publication Date
WO2006070601A1 true WO2006070601A1 (ja) 2006-07-06

Family

ID=36614721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022929 WO2006070601A1 (ja) 2004-12-27 2005-12-14 データ処理装置

Country Status (4)

Country Link
US (1) US20080092048A1 (ja)
JP (1) JP4932493B2 (ja)
CN (1) CN101080924A (ja)
WO (1) WO2006070601A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010507155A (ja) * 2006-10-17 2010-03-04 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ ビデオシーケンス内の漸進的遷移の検出
JP2011024076A (ja) * 2009-07-17 2011-02-03 Mitsubishi Electric Corp 映像記録再生装置および映像記録再生方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100286989A1 (en) * 2008-01-16 2010-11-11 Shingo Urata Recording/reproduction device
JP2010257508A (ja) * 2009-04-22 2010-11-11 Funai Electric Co Ltd 光ディスク再生装置
WO2014126422A1 (en) * 2013-02-14 2014-08-21 Lg Electronics Inc. Video display apparatus and operating method thereof
JP6410483B2 (ja) * 2013-08-09 2018-10-24 キヤノン株式会社 画像処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317342A (ja) * 1995-05-16 1996-11-29 Hitachi Ltd 映像記録再生装置
JPH1084526A (ja) * 1996-06-04 1998-03-31 Hitachi Denshi Ltd 映像情報編集方法
JPH10191248A (ja) * 1996-10-22 1998-07-21 Hitachi Denshi Ltd 映像編集方法およびその方法の手順を記録した記録媒体
JP2002521977A (ja) * 1998-07-28 2002-07-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオデータストリーム内に配置されたコマーシャルを位置決めする装置および方法
JP2003257160A (ja) * 2002-03-04 2003-09-12 Hitachi Ltd 記録再生装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4390904A (en) * 1979-09-20 1983-06-28 Shelton Video Editors, Inc. Automatic circuit and method for editing commercial messages from television signals
JP2977829B2 (ja) * 1989-01-11 1999-11-15 株式会社東芝 動画像再生装置および動画像再生方法
US5696866A (en) * 1993-01-08 1997-12-09 Srt, Inc. Method and apparatus for eliminating television commercial messages
US5761190A (en) * 1995-02-20 1998-06-02 Pioneer Electronic Corporation OFDM broadcast wave receiver
US5995703A (en) * 1995-08-21 1999-11-30 Daewoo Electronics Co., Ltd. Apparatus for generating a screen fade effect in a video disc reproducing system
US6788880B1 (en) * 1998-04-16 2004-09-07 Victor Company Of Japan, Ltd Recording medium having a first area for storing an audio title set and a second area for storing a still picture set and apparatus for processing the recorded information
US6327390B1 (en) * 1999-01-14 2001-12-04 Mitsubishi Electric Research Laboratories, Inc. Methods of scene fade detection for indexing of video sequences
US20050193425A1 (en) * 2000-07-24 2005-09-01 Sanghoon Sull Delivery and presentation of content-relevant information associated with frames of audio-visual programs
US7421129B2 (en) * 2002-09-04 2008-09-02 Microsoft Corporation Image compression and synthesis for video effects
WO2005002221A1 (ja) * 2003-06-30 2005-01-06 Matsushita Electric Industrial Co., Ltd. データ処理装置及びデータ処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317342A (ja) * 1995-05-16 1996-11-29 Hitachi Ltd 映像記録再生装置
JPH1084526A (ja) * 1996-06-04 1998-03-31 Hitachi Denshi Ltd 映像情報編集方法
JPH10191248A (ja) * 1996-10-22 1998-07-21 Hitachi Denshi Ltd 映像編集方法およびその方法の手順を記録した記録媒体
JP2002521977A (ja) * 1998-07-28 2002-07-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオデータストリーム内に配置されたコマーシャルを位置決めする装置および方法
JP2003257160A (ja) * 2002-03-04 2003-09-12 Hitachi Ltd 記録再生装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010507155A (ja) * 2006-10-17 2010-03-04 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ ビデオシーケンス内の漸進的遷移の検出
JP2011024076A (ja) * 2009-07-17 2011-02-03 Mitsubishi Electric Corp 映像記録再生装置および映像記録再生方法

Also Published As

Publication number Publication date
JP4932493B2 (ja) 2012-05-16
CN101080924A (zh) 2007-11-28
JPWO2006070601A1 (ja) 2008-06-12
US20080092048A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
KR100564452B1 (ko) 영상 녹화 및 재생 장치 및 방법
US20090249208A1 (en) Method and device for reproducing images
JP3526414B2 (ja) 情報記録再生方法および情報記録再生装置
JP2009151922A (ja) 記録再生装置
WO2006070601A1 (ja) データ処理装置
KR100747530B1 (ko) Pvr 시스템 및 그 방송 재생 방법
JP2004072727A (ja) 画像処理方法、画像処理装置、画像記録再生装置、およびテレビジョン受像機
JP2005079954A (ja) 記録再生装置、再生処理方法
JP2004015485A (ja) ファイル情報再生装置及びファイル情報再生方法
WO2004029958A1 (ja) 動画像・音声記録装置及び動画像・音声記録方法
JPH10304321A (ja) テレビジョン放送システムおよびテレビジョン放送システム用受信装置
JP2002077820A (ja) 蓄積再生装置およびデジタル放送送信装置
JP3631475B2 (ja) 映像再生装置及び映像再生方法
JP2002223408A (ja) 再生装置
JP4268925B2 (ja) 要約再生装置、要約再生方法、要約再生プログラムおよびそのプログラムが記録された情報記録媒体
JP4826484B2 (ja) 放送録画再生装置
JP4592443B2 (ja) 映像記録再生機器
JP2005198203A (ja) 映像信号記録再生装置および方法
KR20050073011A (ko) 디지털 방송 수신기 및 디지털 방송 수신기에서 섬네일탐색 방법
KR100626890B1 (ko) 재생 위치 탐색 장치
JP2004072728A (ja) 画像記録方法、画像記録装置、画像記録再生装置、画像処理装置およびテレビジョン受像機
KR101082844B1 (ko) 피브이알 시스템의 방송 프로그램 재생 방법
JP2005253039A (ja) ビデオ信号再生装置及びビデオ再生方法
JP2004186997A (ja) デジタル記録再生装置
KR100729065B1 (ko) 피브이알 시스템의 방송 데이터 녹화 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006550666

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 200580043535.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11722721

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05816820

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5816820

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11722721

Country of ref document: US