WO2013088589A1 - 映像信号処理装置、映像信号出力装置、及び映像信号処理方法 - Google Patents

映像信号処理装置、映像信号出力装置、及び映像信号処理方法 Download PDF

Info

Publication number
WO2013088589A1
WO2013088589A1 PCT/JP2012/002803 JP2012002803W WO2013088589A1 WO 2013088589 A1 WO2013088589 A1 WO 2013088589A1 JP 2012002803 W JP2012002803 W JP 2012002803W WO 2013088589 A1 WO2013088589 A1 WO 2013088589A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
frame
information
interpolation
baseband
Prior art date
Application number
PCT/JP2012/002803
Other languages
English (en)
French (fr)
Inventor
仁尾 寛
太田 義人
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/362,628 priority Critical patent/US20140362923A1/en
Publication of WO2013088589A1 publication Critical patent/WO2013088589A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0147Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation using an indication of film mode or an indication of a specific pattern, e.g. 3:2 pull-down pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping

Definitions

  • the present invention relates to a video signal output device that decodes a compressed video signal (video stream) and converts a frame rate, a video signal processing device that interpolates and outputs a video, and a video signal processing method.
  • the frame rate of the compressed video signal is converted into the output frame rate of the display device by repeating the decoded compressed video signal frame by frame repeat processing.
  • cadence detection for detecting a video signal repeat cycle (cadence information) from video signals is performed, and frames are interpolated according to the repeat cycle.
  • an object of the present invention is to provide a video signal processing apparatus and a video signal processing method capable of appropriately interpolating a frame-repeat frame without erroneously detecting frame repetition.
  • the video signal processing device outputs the same frame as the corresponding frame continuously for each frame obtained by decoding the compressed video signal.
  • An interpolation phase generation unit that obtains repeat information and generates interpolation phase information indicating a phase for generating an interpolation frame according to a frame rate of the baseband video signal based on the frame repeat information; and the frame repeat
  • a motion vector detection unit for detecting a motion vector between updated frames represented by the information, and the interpolation phase information And generating the interpolated frame by interpolating the motion between the updated frames using the motion vector, and outputting the same frame rate as the baseband video signal, including the updated frame and the interpolated frame
  • An interpolation frame generation unit that outputs a video signal.
  • the present invention it is possible to determine that the repetition of the frame is due to frame repeat, and to interpolate the frame repeated frame without erroneous detection.
  • FIG. 1 is a block diagram showing the configuration of the video signal processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an example of a method for determining a frame repeat process.
  • FIG. 3A is a diagram illustrating an example of the operation of the video signal processing device according to the first embodiment of the present invention.
  • FIG. 3B is a diagram illustrating a relationship between the repetitive phase and the interpolation phase information.
  • FIG. 4A is a diagram illustrating another example of the operation of the video signal processing device according to the first embodiment of the present invention.
  • FIG. 4B is a diagram illustrating a relationship between the repetitive phase and the interpolation phase information.
  • FIG. 5 is a block diagram showing the configuration of a video signal output device and a video signal processing device according to the second embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a data structure of a baseband video signal according to the second embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an example of bit assignment of frame repeat information according to the second embodiment of this invention.
  • FIG. 8 is a block diagram showing a configuration of a video signal output device and a video signal processing device according to the third embodiment of the present invention.
  • FIG. 9 is a block diagram showing a conventional example.
  • Patent Document 1 discloses an example of a conventional frame rate conversion process. First, such an example will be described with reference to FIG.
  • FIG. 9 shows, for example, that the input video signal is a film material that is periodically repeated, detects the video signal repeat cycle (cadence information) from the input video signal (cadence detection), and changes the frame rate from high-definition to NTSC.
  • This is an example of conversion (down-conversion) to a method.
  • a high-definition video signal Vin is supplied to the input terminal 101.
  • the video signal Vin is directly supplied to the subtracter 102 and further supplied to the subtracter 102 via a series circuit of field memories 103 and 104 constituting a delay circuit (delay time of one frame period).
  • the inter-frame difference signal SDF output from the subtracter 102 is supplied to a 2-3 pull-down telecine video signal detection circuit 105.
  • the video signal Vin supplied to the input terminal 101 is supplied to the timing generation circuit 106.
  • the timing generation circuit 106 is configured using a synchronization separation circuit, a PLL circuit, and the like, and based on a synchronization signal separated from the video signal Vin, a clock CK, a line synchronization signal LO / E corresponding to an odd / even line, a field pulse VP, And a frame pulse FP is output.
  • the detection circuit 105 is supplied with a field pulse VP from the timing generation circuit 106.
  • a conventional compressed video signal decoder that decodes a compressed video signal, and a video signal processing apparatus thereafter have been developed to decode a broadcast signal.
  • a technique is known in which a frame that is repeatedly output is replaced with an interpolated frame obtained by interpolating the motion between frames for the purpose of smoothing a video change between frames that have been repeated.
  • the video signal processing apparatus detects the cadence information obtained from the frame output from the compressed video signal decoder, the frame change point may be erroneously detected when similar frames continue. Therefore, it is also a problem that the video is disturbed as a result of the video signal being interpolated by erroneous detection or the like.
  • the video signal processing device continuously outputs the same frame as the corresponding frame multiple times for each frame obtained by decoding the compressed video signal.
  • a baseband video signal processing apparatus that performs signal processing of a baseband video signal generated by the first base frame, and represents a position in the baseband video signal of the first frame of the same frame that is continuously output a plurality of times
  • An interpolation phase generation unit that acquires frame repeat information and generates interpolation phase information indicating a phase for generating an interpolation frame according to a frame rate of the baseband video signal based on the frame repeat information; and the frame
  • a motion vector detection unit for detecting a motion vector between updated frames represented by repeat information; and the interpolation phase
  • the interpolated frame is generated by interpolating the motion between the updated frames using the information and the motion vector, and includes the updated frame and the interpolated frame, and has the same frame rate as the baseband video signal.
  • An interpolation frame generation unit that outputs an output video signal.
  • the interpolation phase generation unit generates frame update information indicating whether or not a frame included in the baseband video signal is updated from the immediately preceding frame based on the frame repeat information, and the motion vector detection unit May detect a motion vector between the updated frames represented by the frame update information.
  • the video signal processing apparatus further includes a cadence detection unit that detects cadence information indicating whether or not a frame included in the baseband video signal has been updated based on the baseband video signal, and the interpolation phase
  • the generation unit may generate the frame update information and the interpolation phase information using the frame repeat information and the cadence information.
  • the video signal processing apparatus further includes an HDMI acquisition unit that acquires a video signal of an HDMI (High Definition Multimedia Interface) standard including the baseband video signal and the frame repeat information, and the frame repeat information includes the HDMI It may be superimposed on the InfoFrame of the standard video signal.
  • HDMI High Definition Multimedia Interface
  • the video signal processing apparatus may further include a compressed video signal decoding unit that decodes the compressed video signal and outputs the baseband video signal and the frame repeat information.
  • the compressed video signal decoding unit superimposes the frame repeat information on a blanking period that is a period in which video information is not included in the baseband video signal, and displays the baseband video signal and the frame repeat information. It may be output.
  • the video signal processing apparatus may be an LSI (Large Scale Integration).
  • the video signal output device acquires a compressed video signal, and outputs the same frame as the frame consecutively for each frame obtained by decoding the compressed video signal.
  • a compressed video signal decoding unit that outputs a baseband video signal generated by the first frame and frame repeat information indicating a position in the baseband video signal of the first frame among the same frames that are continuously output a plurality of times.
  • the compressed video signal decoding unit superimposes the frame repeat information on a blanking period that is a period in which video information is not included in the baseband video signal, and displays the baseband video signal and the frame repeat information. It may be output.
  • the video signal output device further includes an HDMI output unit that outputs the baseband video signal and the frame repeat information as an HDMI standard video signal, and the HDMI output unit outputs the frame repeat information to the frame repeat information. It may be output by being superimposed on the InfoFrame of the HDMI standard video signal.
  • the present invention provides a signal processing of a baseband video signal generated by outputting the same frame as the corresponding frame multiple times for each frame obtained by decoding a compressed video signal as a video signal processing method.
  • a frame repeat information representing a position in the baseband video signal of the first frame among the same frames output continuously several times, and based on the frame repeat information
  • An interpolation phase generation step for generating interpolation phase information indicating a phase of an interpolation frame to be interpolated according to a frame rate of the baseband video signal, and an updated motion vector between frames represented by the frame repeat information.
  • FIG. 1 is a block diagram showing the configuration of the video signal processing apparatus according to the first embodiment.
  • the video signal processing device 60 includes a compressed video signal decoding unit 10, a cadence detection unit 20, an interpolation phase generation unit 30, a motion vector detection unit 40, and an interpolation frame generation unit 50.
  • the compressed video signal decoding unit 10 decodes the input compressed video signal and outputs a baseband video signal and frame repeat information.
  • the baseband video signal is a video signal generated by continuously outputting the same frame as the corresponding frame for each frame included in the video signal obtained by decoding (decoding) the compressed video signal.
  • the frame repeat information is information representing the position in the baseband video signal of the first frame among the same frames output continuously a plurality of times.
  • the cadence detection unit 20 detects cadence information indicating whether or not a frame included in the baseband video signal has been updated based on the baseband video signal.
  • Updating a frame means that a frame different from the frame that was output a plurality of times immediately before is output. That is, the point at which the frame is updated is a frame change point (switching of frames included in the video signal obtained by decoding the compressed video signal) in the baseband video signal. Therefore, the frame update period means a frame repetition period.
  • Interpolation phase generation unit 30 acquires frame repeat information, and generates frame update information and interpolation phase information.
  • the frame update information represents whether or not a frame included in the baseband video signal has been updated.
  • the interpolation phase information is information for interpolating the motion between different frames of the baseband video signal.
  • the motion vector detection unit 40 detects a motion vector between frames updated from the baseband video signal and the frame update information.
  • the interpolation frame generation unit 50 generates an interpolation frame using the frame update information, the baseband video signal, the interpolation phase information, and the motion vector, and has the same frame rate as the baseband video signal including the updated frame and the interpolation frame. Output video signal.
  • the output frame rate of the compressed video signal decoding unit 10 is 60 Hz unless otherwise specified.
  • FIG. 3A is a diagram illustrating an example of the operation of the video signal processing device 60.
  • the compressed video signal decoding unit 10 decodes an input compressed video signal ((1) and (1 ′) in FIG. 3A) and a baseband video signal ((2) in FIG. 3A) and frame repeat information ( (3) in FIG. 3A is output.
  • the compressed video signal decoding unit 10 determines the frame rate of the compressed video signal using frame rate information that is a part of header information included in the compressed video signal or time stamp information included in the compressed video signal. I do.
  • the compressed video signal decoding unit 10 decodes the compressed video signal. For each frame of the video signal, the same frame as that frame is continuously output four times.
  • a frame described as “1” (hereinafter referred to as frame “1”) in FIG. 3A (2) is the same frame as a frame representing one stream of the compressed video signal.
  • the frame “2” is the same frame as the frame representing the two streams of the compressed video signal.
  • the frame repeat information indicated by (3) in FIG. 3A represents the first frame among the same frames output four times in succession.
  • the frame repeat information is a low-level value during the period in which the first frame of frames “1”, “2”, “3”,. It is a digital signal that takes a high level value during other periods.
  • the logic (high level period and low level period) of the frame repeat information may be reversed. That is, a high level value may be taken during a period in which the first frame of each frame output continuously is output, and a low level value may be taken during other periods.
  • the interpolation phase generation unit 30 detects the frame rate of the compressed video signal from the ratio between the high level and the low level of the frame repeat information output from the compressed video signal decoding unit 10, and determines the frame repeat process. .
  • FIG. 2 is a flowchart illustrating an example of a method for determining the frame repeat process of the interpolation phase generation unit 30.
  • the frame rate of the compressed video signal is associated with a predetermined frame repeat process performed by the compressed video signal decoding unit 10.
  • the frame repeat processing performed by the compressed video signal decoding unit 10 is either 2: 2: 2: 4 processing or 2: 2 processing.
  • the 2: 2: 2: 4 processing includes, for example, frames “1”, “2”, “3”, and “4” that are temporally continuous in the compressed video signal (streams 1 to 4 are included).
  • the compressed video signal decoding unit 10 outputs frames “1” “1” “2” “2” “3” “3” “4” “4” “4” “4” “4” as the baseband video signal. It means to do.
  • the frames after the frame “5” following the frame “4” are also output continuously continuously continuously.
  • the compressed video signal decoding unit 10 converts the frames “1”, “1”, “2”, “2”, “3”, “3”, “4”, and “4” as baseband video signals. This means that the frames of the video signal obtained by decoding the compressed video signal are output continuously twice.
  • the frame repeat processing is 2: 3: 2: 3: 2 processing
  • the frame repeat processing is 3: 2 processing. is there.
  • the frame rate of the compressed video signal is 24 Hz, 20 Hz, 15 Hz, and 12 Hz
  • the frame repeat processing is associated with 3: 2 processing, 3: 3 processing, 4: 4 processing, and 5: 5 processing, respectively. ing.
  • the interpolation phase generation unit 30 performs the frame performed by the compressed video signal decoding unit 10 according to the flowchart of FIG. Repeat processing can be determined.
  • the interpolation phase generation unit 30 refers to the output of the cadence detection unit 20 (S13). As a result, when the output of the cadence detection unit 20 represents 2: 2: 2: 4 processing (Yes in S13), the interpolation phase generation unit 30 determines that the frame repeat processing is 2: 2: 2: 4 processing. (S14). The operation of the cadence detection unit 20 will be described later. When the output of the cadence detection unit 20 does not represent 2: 2: 2: 4 processing (No in S13), the interpolation phase generation unit 30 determines that the frame repeat processing is 2: 2 processing.
  • the interpolation phase generation unit 30 performs the frame repeat process by 2: 3: 2: 3: 2 process. It is determined that it exists (S8).
  • the interpolation phase generation unit 30 determines that the frame repeat process is a 3: 2 process (S9).
  • the interpolation phase generation unit 30 performs the 3: 3 frame repeat process (S10), and when the frame rate is determined to be 15 hz (Yes in S6). If the frame repeat process is 4: 4 process (S11) and the frame rate is 12 Hz (Yes in S7), it is determined that the frame repeat process is 5: 5 process (S12). When it is determined that the frame rate of the compressed video signal does not apply to all of the frame rates shown in FIG. 2 (No in S7), the processing delays of S8 to S12, S14, and S15 are matched. After processing, frame discrimination is performed again.
  • the interpolation phase generation unit 30 determines that the frame rate of the compressed video signal is 15 Hz (S6 in FIG. 2). Therefore, the interpolation phase generation unit 30 determines that the frame repeat processing performed by the compressed video signal decoding unit 10 is 4: 4 processing (S11 in FIG. 2).
  • the frame rate may be determined using frame rate information that is a part of header information included in the compressed video signal. Further, this determination may use time stamp information included in the compressed video signal. Further, the determination processing in steps S2 to S7 in FIG. 2 may be performed in one step. Further, the order of the processes in steps S2 to S7 in FIG. 2 may be changed.
  • the interpolation phase generation unit 30 generates frame update information ((6) in FIG. 3A) and interpolation phase information ((7) in FIG. 3A).
  • Frame update information is information indicating frame update (switching).
  • the same frames as the frame “1”, the frame “2”, the frame “3”,... Included in the video signal obtained by decoding the compressed video signal are continuously output four times each.
  • the update of the frame means that a frame different from the frame output continuously several times immediately before is output.
  • the frame update information takes a high level value during a period in which each first frame (updated frame) of the baseband video signal that is continuously output four times is output. It is a digital signal that takes a low level value during the other periods.
  • the frame update information is a signal obtained by inverting the logic of the frame repeat information. That is, the generation of the frame update information is not necessarily required, and the frame repeat information may be used as it is.
  • the logic of the frame update information may be reversed.
  • the low level value may be taken during the period when the first frame of each of the continuously output frames is outputted, and the high level value may be taken during the other periods.
  • Interpolation phase information is information for generating an interpolated frame obtained by interpolating the motion of frames continuously output in the baseband video signal with a motion vector described later.
  • the information represents the time distance between frames.
  • the time distance between the frames “1”, “2”, “3”,... Included in the video signal obtained by decoding the compressed video signal is “1”.
  • the same frame as the frame included in the video signal obtained by decoding the compressed video signal is output four times in succession, so the time distance between consecutively output frames is “0”. is there.
  • the time distance between the last frame “1” of the frame “1” that is output four times in succession and the frame “2” that is output following this frame is “ 1 ”.
  • the interpolation phase information is obtained as follows.
  • the repetitive phase ((5) in FIG. 3A) is obtained based on the detection result of the frame rate shown in (4) in FIG. 3A (discrimination result of the frame repeat process).
  • the frame repeat processing is 4: 4 processing, the same frame as the frame included in the video signal obtained by decoding the compressed video signal is output four times, so that each repetition phase of “0” to “3” is the repetition phase.
  • the updated frame is associated with the repetition phase “0”, and the subsequent three frames that are the same as the updated frame have the repetition phases “1”, “2”, and “3”. Are associated.
  • interpolated phase information is obtained from the repeated phase calculation results.
  • the repetition phase and the interpolation phase are associated with each determined frame repeat process.
  • FIG. 3B is a diagram showing the relationship between the repetitive phase and the interpolation phase information.
  • the interpolation phase information “0”, “1/4”, “2/4”, and “3/4” are associated with the repetitive phases “0”, “1”, “2”, and “3”, respectively. ing. Therefore, for example, the first phase “1” output continuously (hereinafter referred to as updated frame “1”) is associated with the interpolation phase information “0”. Interpolation phase information “1/4” is associated with the second frame “1” output following the updated frame “1”. Similarly, interpolation phase information “2/4” is associated with the third frame “1”, and interpolation phase information “3/4” is associated with the fourth frame “1”.
  • the interpolation phase generation unit 30 obtains the interpolation phase information using the table in which the repetition phase and the interpolation phase are associated with each determined frame repeat process.
  • the motion vector detection unit 40 obtains a motion vector between frames updated using the frame update signal ((8) in FIG. 3A).
  • the interpolation frame generation unit 50 generates an interpolation frame using the baseband video signal, the motion vector, the frame update information, and the interpolation phase information ((9) in FIG. 3A).
  • the interpolation frame is generated by linearly interpolating the updated frame using the baseband video signal, the motion vector, the interpolation phase information, and the frame update information.
  • the interpolation frame “1.25” corresponding to the interpolation phase “1 ⁇ 4” shown in (9) of FIG. 3A is updated to the updated frame “1” corresponding to the interpolation phase information “0”. It is generated by linear interpolation using the motion vector obtained from the frame “2”.
  • the motion vector detection unit 40 divides the updated frame “1” and the updated frame “2” into several small regions.
  • the motion vector detection unit 40 obtains a SAD (Sum of Absolute Difference) between one small region of the frame “2” (hereinafter referred to as a small region A) and each small region of the frame “1”.
  • the SAD is a parameter obtained by calculating the absolute value of the luminance difference between each pixel constituting the frame and the corresponding pixel in the temporally continuous frame and summing up the absolute values of the calculated luminance differences of the pixels. .
  • the motion vector detection unit 40 selects a small region (hereinafter referred to as a small region A ′) of the updated frame “1” corresponding to the smallest SAD value among the SADs obtained for the number of small regions. Ask. Furthermore, the motion vector detection unit 40 uses the small area A and the small area A ′ to obtain a motion vector A that represents a change in position from the small area A to the small area A ′.
  • a small area (hereinafter referred to as small area A ′′) at the required position is obtained.
  • the luminance of each pixel in the small area A ′′ is obtained by proportionally distributing the luminance of each pixel in the small area A and the luminance of each pixel in the small area A ′.
  • the above 0.25 and 0.75 are values obtained from the interpolation phase information 1/4.
  • the luminance of the small area A ′′ of the interpolation frame “1.25” is obtained.
  • the luminance of the other small areas of the interpolation frame “1.25” is obtained by obtaining the motion vectors. As a result, the interpolation frame “1.25” is generated.
  • the interpolation frame generation unit 50 generates interpolation frames “1.5” and “1.75” corresponding to the interpolation phase information “2/4” and “3/4”. Further, the interpolation frames “2.25”, “2.5”, and “2.75” shown in FIG. 3A are also generated by the same method.
  • the interpolation frame generation unit 50 outputs an output video signal in which a frame included in the baseband video signal is replaced with an interpolation frame in accordance with the interpolation phase information. As shown in (9) of FIG. 3A, the frame corresponding to the interpolation phase information “0”, that is, the updated frame is not replaced with the interpolation frame.
  • the video signal processing apparatus may be configured to discriminate the frame repeat processing by using both the frame repeat information and the cadence information detection.
  • FIG. 4A is a diagram illustrating another example of the operation of such a video signal processing device 60.
  • the compressed video signal decoding unit 10 decodes an input compressed video signal ((1) and (1 ′) in FIG. 4A) to generate a baseband video signal ((2) in FIG. 4A).
  • Frame repeat information ((3) in FIG. 4A) is output.
  • the compressed video signal decoding unit 10 continuously outputs frames by 2: 2: 2: 4 processing. Therefore, as shown in FIG. 4A, in the baseband video signal, the frames “1” to “3” are continuously output twice, and the frame “4” is continuously output four times. That is, the frame represented by “4 stream” and the frame represented by “4 ′ stream” in (1) of FIG. 4A are the same video (frame), and the frame in (2) of FIG. 4A. “4” and frame “4 ′” are the same frame.
  • the frame repeat information indicated by (3) in FIG. 4A includes the frame “1”..., The frame “4”, the frame “4 ′”. It takes a low level value during the output period, and takes a high level value during other periods.
  • the frame repeat information is a signal representing the frame rate of the compressed video signal.
  • the interpolation phase generation unit 30 detects that the frame rate of the compressed video signal is 30 Hz from the ratio between the high level and low level periods of the frame repeat information (3) in FIG. 4A. ((4) in FIG. 4A).
  • the cadence detection unit 20 detects cadence information indicating whether or not the frame included in the baseband video signal has been updated based on the baseband video signal ((7) in FIG. 4A).
  • the cadence information is a value obtained by accumulatively adding the absolute value of the luminance difference of the corresponding pixel in each frame to the frame difference of the baseband video signal indicated by (2) in FIG. 4A (( 5)) is a digital signal ((6) in FIG. 4A) obtained by calculating 0/1 based on the threshold value.
  • the interpolation phase generation unit 30 performs frame update information ((9) in FIG. 4A) and interpolation phase information (((4) in FIG. 4A) based on the detection result of the cadence information that the frame repeat processing is 2: 2: 2: 4 processing. 10)).
  • the interpolation phase generation unit 30 first obtains the repetitive phase ((8) in FIG. 4A.
  • the frame repeat processing is 2: 2: 2: 4 processing
  • the frame repeat processing is: Since it has a period of every 10 frames, each repetition phase of “0” to “9” is associated as a repetition phase.
  • FIG. 4B is a diagram showing the relationship between the repetitive phase and the interpolation phase information.
  • the interpolation phase information “0”, “2/5”, “4/5”, “1/5”, “3/5”, “0”, “2” is added to the repetition phases “0” to “9”, respectively. / 5 ",” 4/5 “,” 1/5 ",” 3/5 ", and” 0 "are associated with each other. Therefore, the interpolation phase information is associated with each frame included in the baseband video signal shown in (2) of FIG. 4A.
  • the motion vector detection unit 40 detects the motion vector between the updated frames using the frame update information ((9) in FIG. 4A) ((11) in FIG. 4A).
  • the interpolation frame generation unit 50 generates an interpolation frame using the motion vector, the frame update information, and the interpolation phase information ((12) in FIG. 4A).
  • the motion vector detection method and the interpolation frame generation method are the same as those described with reference to FIG. 3A.
  • the interpolation frame generation unit 50 outputs an output video signal in which a frame included in the baseband video signal is replaced with an interpolation frame in accordance with the interpolation phase information. As shown in (12) of FIG. 4A, the frame corresponding to the interpolation phase information “0” is not replaced with the interpolation frame.
  • the frame repeat information may be a signal that directly indicates the frame repeat process 2: 2: 2: 4 process. That is, for example, the frame repeat information may be a signal obtained by inverting the logic of the cadence information indicated by (6) in FIG. 4A.
  • the detection result of the cadence detection unit 20 is used only when the frame rate of the compressed video signal is 30 Hz. However, even in the case of other frame rates, when there are two or more types of frame repeat processing for the same frame rate, the frame repeat processing is discriminated using the detection result of the cadence information of the cadence detection unit 20. May be.
  • the cadence detection unit 20 is configured to detect only 2: 2: 2: 4 processing. However, the cadence detection unit 20 detects cadence information for other frame repeat processing. Also good.
  • the video signal processing device 60 has been described based on the first embodiment.
  • the video signal processing device 60 it is possible to determine the frame repeat processing of the baseband video signal without erroneous detection. Therefore, the video signal processing device 60 can appropriately interpolate the frames subjected to the frame repeat process.
  • the video signal processing device 60 may output the output video signal to a display device or the like and display the detection result of the frame rate detected in FIG. 2 on the display device or the like.
  • a selection menu for causing the user to select whether or not to perform frame interpolation processing based on the detection result of the frame rate may be displayed on a display device or the like before performing frame interpolation processing. Good.
  • a device that decodes a compressed video signal (video signal output device) and a device that generates an interpolated frame (video signal processing device) can be configured as separate LSIs (Large Scale Integrations). Many.
  • FIG. 5 is a block diagram showing a video signal output device and a video signal processing device according to the second embodiment of the present invention. Note that components having the same reference numerals as those in the first embodiment have the same functions as those in the first embodiment and perform the same operations as those in the first embodiment unless otherwise specified. Is omitted.
  • the video signal output device 120 is an LSI including a compressed video signal decoding unit 10 and an LVDS output unit 100.
  • the video signal processing device 130 is an LSI that includes a cadence detection unit 20, an interpolation phase generation unit 30, a motion vector detection unit 40, an interpolation frame generation unit 50, and an LVDS acquisition unit 110.
  • the LVDS output unit 100 superimposes (records) frame repeat information in a blanking period in which the video information of the baseband video signal output from the compressed video signal decoding unit 10 is not included, and outputs it as LVDS.
  • the LVDS acquisition unit 110 acquires the LVDS and separates the frame repeat information superimposed on the blanking period of the baseband video signal and the baseband video signal.
  • the LVDS acquisition unit 110 outputs the separated frame repeat information to the interpolation phase generation unit 30, and outputs the baseband video signal to the cadence detection unit 20, the motion vector detection unit 40, and the interpolation frame generation unit 50.
  • FIG. 6 is a diagram illustrating a data structure of a baseband video signal according to the second embodiment.
  • the data structure shown in FIG. 6 is the 9th to 2nd bits of a signal (signal G) corresponding to green (G) of the baseband video signal.
  • the LVDS output unit 100 superimposes and outputs frame repeat information in a blanking period of 20 bytes (8 bits ⁇ 20) located in the 9th to 2nd bits of the signal G.
  • the 0th byte (HD) is a fixed value FFh indicating the header of the multiplexed signal
  • the 1st byte (D0) is a valid flag of the repeat flag of the decoder.
  • the second byte (D1) is frame repeat information
  • the third byte (D2) is frame rate information of the compressed video signal (input stream)
  • the fourth to nineteenth bytes (D3 to D18) are spare data. is there.
  • FIG. 7 is a diagram illustrating an example of bit assignment of frame repeat information.
  • the LSB (Least Significant Bit) of the first byte (D0) is a flag indicating the validity / invalidity of the frame repeat information. For example, “0” corresponds to invalidity, and “1” corresponds to validity.
  • the LSB of the second byte (D1) is frame repeat information. For example, “0” corresponds to no frame repeat (the first frame of the same continuous frame), and “1” represents the occurrence of frame repeat (the same continuous) Corresponding to the first frame of the frame).
  • the third byte (D2) is frame rate information of the compressed video signal (input video stream).
  • D2 the frame rate of the compressed video signal
  • a value of 1eh h represents a hexadecimal number
  • the compressed video signal When the frame rate is 15 Hz, 0fh is stored in D2.
  • the video signal output device 120 superimposes the frame repeat information on the blanking period of the baseband video signal, so that the video signal output device 120 can change the frame without changing the data structure of the baseband video signal. Repeat information can be transmitted.
  • a signal used for communication may be a differential transmission system signal such as VbyOne (registered trademark) used for an interface between LSIs, or a single-end transmission system signal such as CMOS. .
  • a device that decodes a compressed video signal (video signal output device) and a device that generates an interpolated frame (video signal processing device) may be mounted on different devices.
  • the device that decodes the compressed video signal is a Blu-Ray player
  • the device that generates the interpolation frame is a television.
  • FIG. 8 is a block diagram showing a configuration of a video signal output device and a video signal processing device according to the third embodiment.
  • the video signal output device 220 includes a compressed video signal decoding unit 10 and an HDMI output unit 200.
  • the video signal processing device 230 is an LSI including a cadence detection unit 20, an interpolation phase generation unit 30, a motion vector detection unit 40, an interpolation frame generation unit 50, and an HDMI acquisition unit 210.
  • the HDMI output unit 200 outputs a baseband video signal and decode information including frame repeat information as an HDMI standard video signal.
  • the HDMI output unit 200 superimposes the decode information including the frame repeat information on the InfoFrame portion of the HDMI standard video signal and outputs it.
  • the HDMI acquisition unit 210 acquires an HDMI standard video signal including a baseband video signal and decode information including frame repeat information.
  • the frame repeat information is superimposed on the InfoFrame of the HDMI standard video signal by the HDMI output unit 200.
  • the video signal output device 220 superimposes the frame repeat information on the InfoFrame of the HDMI standard video signal, so that the video signal output device 220 can easily transmit the frame repeat information between different devices. it can.
  • the video signal output device and the video signal processing device have been described based on the first to third embodiments.
  • the present invention can be modified as follows.
  • Each of the above devices is specifically a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the components constituting each of the above devices may be configured by one system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting each of the above devices may be constituted by an IC card or a single module that can be attached to and detached from each device.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like. Further, the digital signal may be recorded on these recording media.
  • a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc).
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.
  • the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.
  • the video signal processing device can process the baseband video signal into the output video signal using the interpolation frame without erroneously detecting the frame repeat processing. Is possible. Therefore, a smooth and high-definition video display in which the viewer does not feel uncomfortable with the video is realized.
  • the baseband video signal is signal-processed into the output video signal using the interpolation frame without erroneously detecting the frame repeat processing. It is possible. Therefore, according to the present invention, it is possible to display a smooth and high-definition video without causing the viewer to feel uncomfortable, and it is useful as a display device such as a television or a personal computer that can reproduce a compressed video signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

 フレームの繰り返しを誤検出せず、フレームリピートされたフレームを適切に補間する。圧縮映像信号をデコードしたベースバンド映像信号の信号処理を行う映像信号処理装置(60)であって、複数回連続して出力された同じフレームの位置を表すフレームリピート情報を取得し、フレーム間の動きを補間した補間フレームを生成するための補間位相情報を生成する補間位相生成部(30)と、フレームリピート情報が表す更新されたフレーム間の動きベクトルを検出する動きベクトル検出部(40)と、補間位相情報及び前記動きベクトルを用いて補間フレームを生成し、更新されたフレームと補間フレームとを含む、ベースバンド映像信号と同じフレームレートの出力映像信号を出力する補間フレーム生成部(50)とを備える。

Description

映像信号処理装置、映像信号出力装置、及び映像信号処理方法
 本発明は、圧縮映像信号(ビデオストリーム)をデコードし、フレームレートを変換する映像信号出力装置、及び映像を補間して出力する映像信号処理装置及び映像信号処理方法に関する。
 近年、例えばインターネットを介したフレームレートの低い圧縮映像信号を再生する表示装置が増加してきている。
 このような圧縮映像信号が表示装置で再生される場合、デコードされた圧縮映像信号のフレームがフレームリピート処理によって繰り返されることで、圧縮映像信号のフレームレートは、表示装置の出力フレームレートに変換される。
 また、このような場合、フレームリピート処理されたフレーム間の映像の変化を滑らかにする目的で、繰り返して出力されるフレームを、フレーム間の動きを補間した補間フレームに置き換える技術が知られている。
 フレーム間の動きを補間する場合、映像信号から映像信号リピート周期(ケイデンス情報)を検出するケイデンス検出(例えば、特許文献1参照)を行い、リピート周期に応じてフレームを補間する。
特開平5-183884号公報
 しかしながら、ケイデンス検出では、フレームの変化点を誤検出するような場合があり、このような場合には、フレームリピートされたフレームを適切に補間できないことが課題である。
 そこで、本発明は、フレームの繰り返しを誤検出せず、フレームリピートされたフレームを適切に補間可能な映像信号処理装置及び映像信号処理方法を提供することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る映像信号処理装置は、圧縮映像信号がデコードされることで得られるフレームごとに当該フレームと同じフレームが複数回連続して出力されることによって生成されたベースバンド映像信号の信号処理を行う映像信号処理装置であって、複数回連続して出力された前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報を取得し、前記フレームリピート情報に基づいて、前記ベースバンド映像信号のフレームレートに応じて補間フレームを生成するための位相を示す補間位相情報を生成する補間位相生成部と、前記フレームリピート情報が表す更新されたフレーム間の動きベクトルを検出する動きベクトル検出部と、前記補間位相情報及び前記動きベクトルを用いて、前記更新されたフレーム間の動きを補間した前記補間フレームを生成し、前記更新されたフレームと前記補間フレームとを含む、前記ベースバンド映像信号と同じフレームレートの出力映像信号を出力する補間フレーム生成部とを備える。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 本発明によれば、フレームの繰り返しがフレームリピートによるものであることを判別し、誤検出なくフレームリピートされたフレームを補間することができる。
図1は、本発明の第1の実施形態に係る映像信号処理装置の構成を表すブロック図である。 図2は、フレームリピート処理の判別方法の例を表すフローチャートである。 図3Aは、本発明の第1の実施形態に係る映像信号処理装置の動作の例を表す図である。 図3Bは、繰返し位相と補間位相情報の関係を示す図である。 図4Aは、本発明の第1の実施形態に係る映像信号処理装置の動作の別の例を表す図である。 図4Bは、繰返し位相と補間位相情報の関係を示す図である。 図5は、本発明の第2の実施形態に係る映像信号出力装置及び映像信号処理装置の構成を表すブロック図である。 図6は、本発明の第2の実施形態に係るベースバンド映像信号のデータ構造を示す図である。 図7は、本発明の第2の実施形態のフレームリピート情報のビット割り当ての例を示す図である。 図8は、本発明の第3の実施形態に係る映像信号出力装置及び映像信号処理装置の構成を表すブロック図である。 図9は、従来の例を示すブロック図である。
 (本発明の基礎となった知見)
 本発明者らは、「背景技術」の欄において記載した、デコードした圧縮映像信号についてフレームレート変換する処理の後、補間フレームを用いて映像信号を再生する場合に以下の課題が生じることを見出した。
 特許文献1には、従来のフレームレート変換処理の一例が開示されている。まず、このような例について、図9を参照しながら説明する。
 図9は、例えば、入力映像信号が周期的にリピートされているFilm素材である事を入力映像信号から映像信号リピート周期(ケイデンス情報)を検出し(ケイデンス検出)、フレームレートをハイビジョン方式からNTSC方式に変換(ダウンコンバート)する例である。
 図9において、入力端子101にはハイビジョン方式の映像信号Vinが供給される。同時に、映像信号Vinは直接減算器102にも供給され、さらに遅延回路(1フレーム期間の遅延時間)を構成するフィールドメモリ103,104の直列回路を介して減算器102に供給される。
 減算器102より出力される1フレーム間差信号SDFは、2-3プルダウン方式のテレシネ映像信号の検出回路105に供給される。また、入力端子101に供給される映像信号Vinは、タイミング発生回路106に供給される。
 タイミング発生回路106は同期分離回路やPLL回路等を用いて構成され、映像信号Vinより分離された同期信号等に基づいてクロックCK、奇偶ラインに対応したライン同期信号LO/E、フィールドパルスVP、及びフレームパルスFPを出力する。上述の検出回路105には、タイミング発生回路106からフィールドパルスVPが供給される。
 また、従来の圧縮映像信号をデコードする圧縮映像信号デコーダ、及びそれ以降の映像信号処理装置は、放送信号をデコードするために開発されていた。このため、圧縮映像信号デコーダは圧縮映像信号のフレームを繰り返して出力するフレームリピートにより、フレームレートを60Hz(=60fps)または、50Hzにデコードした映像信号を出力していた。このような場合、フレームリピートされたフレーム間の映像の変化を滑らかにする目的で、繰り返して出力されるフレームを、フレーム間の動きを補間した補間フレームに置き換える技術が知られている。
 しかしながら、ケイデンス検出では、フレームの繰り返しがコンテンツ制作側の意図によるものか、圧縮映像信号デコーダによってフレームリピートされたものかを、圧縮映像信号デコーダ以降の処理ブロックにおいて判別できないという課題がある。
 また、映像信号処理装置では、圧縮映像信号デコーダから出力されるフレームから求められるケイデンス情報を検出するため、類似するフレームが連続するような場合、フレームの変化点を誤検出することがある。したがって誤検出等により映像信号が補間された結果、映像の乱れが発生することも課題である。
 このような課題を解決するために、本発明の一態様に係る映像信号処理装置は、圧縮映像信号がデコードされることで得られるフレームごとに当該フレームと同じフレームが複数回連続して出力されることによって生成されたベースバンド映像信号の信号処理を行う映像信号処理装置であって、複数回連続して出力された前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報を取得し、前記フレームリピート情報に基づいて、前記ベースバンド映像信号のフレームレートに応じて補間フレームを生成するための位相を示す補間位相情報を生成する補間位相生成部と、前記フレームリピート情報が表す更新されたフレーム間の動きベクトルを検出する動きベクトル検出部と、前記補間位相情報及び前記動きベクトルを用いて、前記更新されたフレーム間の動きを補間した前記補間フレームを生成し、前記更新されたフレームと前記補間フレームとを含む、前記ベースバンド映像信号と同じフレームレートの出力映像信号を出力する補間フレーム生成部とを備える。
 これにより、フレームリピート情報を用いることでフレームの繰り返しを誤検出することがない。したがって、フレーム間の動きを適切に補間可能な映像信号処理装置が実現される。
 また、前記補間位相生成部は、前記フレームリピート情報に基づいて、前記ベースバンド映像信号に含まれるフレームが直前のフレームから更新されたか否かを表すフレーム更新情報を生成し、前記動きベクトル検出部は、前記フレーム更新情報が表す前記更新されたフレーム間の動きベクトルを検出してもよい。
 また、前記映像信号処理装置は、さらに、前記ベースバンド映像信号に含まれるフレームが更新されたか否かを表すケイデンス情報を前記ベースバンド映像信号に基づいて検出するケイデンス検出部を備え、前記補間位相生成部は、前記フレームリピート情報と前記ケイデンス情報とを用いて前記フレーム更新情報と前記補間位相情報とを生成してもよい。
 また、前記映像信号処理装置は、さらに、前記ベースバンド映像信号と前記フレームリピート情報とが含まれるHDMI(HighDefinitionMultimediaInterface)規格の映像信号を取得するHDMI取得部を備え、前記フレームリピート情報は、前記HDMI規格の映像信号のInfoFrameに重畳されてもよい。
 また、前記映像信号処理装置は、さらに、前記圧縮映像信号をデコードして前記ベースバンド映像信号と前記フレームリピート情報とを出力する圧縮映像信号デコード部を備えてもよい。
 また、前記圧縮映像信号デコード部は、前記ベースバンド映像信号のうち映像情報が含まれていない期間であるブランキング期間に前記フレームリピート情報を重畳して前記ベースバンド映像信号及び前記フレームリピート情報を出力してもよい。
 また、前記映像信号処理装置は、LSI(Large Scale Integration)であってもよい。
 また、本発明の一態様に係る映像信号出力装置は、圧縮映像信号を取得し、前記圧縮映像信号がデコードされることで得られるフレームごとに当該フレームと同じフレームを複数回連続して出力することによって生成したベースバンド映像信号と、複数回連続して出力した前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報とを出力する圧縮映像信号デコード部を備える。
 また、前記圧縮映像信号デコード部は、前記ベースバンド映像信号のうち映像情報が含まれていない期間であるブランキング期間に前記フレームリピート情報を重畳して前記ベースバンド映像信号及び前記フレームリピート情報を出力してもよい。
 また、前記映像信号出力装置は、さらに、前記ベースバンド映像信号と前記フレームリピート情報とをHDMI規格の映像信号として出力するHDMI出力部とを備え、前記HDMI出力部は、前記フレームリピート情報を前記HDMI規格の映像信号のInfoFrameに重畳して出力してもよい。
 また、本発明は、映像信号処理方法として圧縮映像信号をデコードすることで得られるフレームごとに当該フレームと同じフレームが複数回連続して出力されることによって生成されたベースバンド映像信号の信号処理を行う映像信号処理方法であって、複数回連続して出力された前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報を取得し、前記フレームリピート情報に基づいて、前記ベースバンド映像信号のフレームレートに応じて補間される補間フレームの位相を示す補間位相情報とを生成する補間位相生成ステップと、前記フレームリピート情報が表す更新されたフレーム間の動きベクトルを検出する動きベクトル検出ステップと、前記補間位相情報及び前記動きベクトルを用いて前記補間フレームを生成し、前記更新されたフレームと前記補間フレームとを含む、前記ベースバンド映像信号と同じフレームレートの出力映像信号を出力する補間フレーム生成ステップとを備える。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下で説明する本発明の実施の形態は、本発明の好ましい一具体例を示すものである。本実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態などは、一例であり、本発明を限定する主旨ではない。よって、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (第1の実施形態)
 以下、図1を参照しながら、第1の実施形態の構成について説明する。
 図1は、第1の実施形態に係る映像信号処理装置の構成を表すブロック図である。
 映像信号処理装置60は、圧縮映像信号デコード部10と、ケイデンス検出部20と、補間位相生成部30と、動きベクトル検出部40と、補間フレーム生成部50とを備える。
 圧縮映像信号デコード部10は、入力される圧縮映像信号をデコードしてベースバンド映像信号とフレームリピート情報とを出力する。ベースバンド映像信号は、圧縮映像信号がデコード(復号)された映像信号に含まれるフレームごとに当該フレームと同じフレームを複数回連続して出力することによって生成される映像信号である。フレームリピート情報は、複数回連続して出力した同じフレームのうち最初のフレームのベースバンド映像信号内の位置を表す情報である。
 ケイデンス検出部20は、ベースバンド映像信号に含まれるフレームが更新されたか否かを表すケイデンス情報をベースバンド映像信号に基づいて検出する。
 フレームが更新される、とは、直前の複数回連続して出力されたフレームと異なるフレームが出力されることを意味する。つまり、フレームが更新された点は、ベースバンド映像信号内における、フレームの変化点(圧縮映像信号がデコードされた映像信号に含まれるフレームの切り替わり)である。したがって、フレーム更新の周期とは、フレームの繰り返しの周期を意味する。
 補間位相生成部30は、フレームリピート情報を取得し、フレーム更新情報と、補間位相情報とを生成する。フレーム更新情報は、ベースバンド映像信号に含まれるフレームが更新されたか否かを表す。補間位相情報は、ベースバンド映像信号の異なるフレーム間の動きを補間するための情報である。
 動きベクトル検出部40は、ベースバンド映像信号とフレーム更新情報とから更新されたフレーム間の動きベクトルを検出する。
 補間フレーム生成部50は、フレーム更新情報、ベースバンド映像信号、補間位相情報及び動きベクトルを用いて補間フレームを生成し、更新されたフレームと補間フレームとを含む、ベースバンド映像信号と同じフレームレートの出力映像信号を出力する。
 次に、映像信号処理装置60の動作について説明する。なお、以下の説明では特に断りのない限り圧縮映像信号デコード部10の出力フレームレートは60Hzである。
 図3Aは、映像信号処理装置60の動作の例を表す図である。
 まず、圧縮映像信号デコード部10は、入力される圧縮映像信号(図3Aの(1)及び(1’))をデコードしてベースバンド映像信号(図3Aの(2))とフレームリピート情報(図3Aの(3))とを出力する。ここでは、圧縮映像信号デコード部10は、圧縮映像信号に含まれるヘッダー情報の一部であるフレームレート情報、または圧縮映像信号に含まれるタイムスタンプ情報を用いて、圧縮映像信号のフレームレートの判別を行う。この場合、圧縮映像信号のフレームレートは15Hzであり、圧縮映像信号デコード部10の出力フレームレートは、上述のように60Hzであるから、圧縮映像信号デコード部10は、圧縮映像信号がデコードされた映像信号のフレームごとに当該フレームと同じフレームを4回ずつ連続して出力する。図3A(2)中の「1」と記載されたフレーム(以下、フレーム「1」と記載する)は、圧縮映像信号の1のストリームを表すフレームと同じフレームである。同様に、フレーム「2」は、圧縮映像信号の2のストリームを表すフレームと同じフレームである。
 図3Aの(3)で示されるフレームリピート情報は、4回連続して出力した同じフレームのうち最初のフレームを表す。具体的には、フレームリピート情報は、4回連続して出力されるフレーム「1」、フレーム「2」、フレーム「3」・・・のそれぞれ先頭のフレームが出力される期間でローレベルの値をとり、それ以外の期間ではハイレベルの値をとるデジタル信号である。なお、フレームリピート情報の論理(ハイレベル期間とローレベル期間)は逆であってもよい。つまり、連続して出力されるフレームのそれぞれ先頭のフレームが出力される期間でハイレベルの値をとり、それ以外の期間ではローレベルの値をとってもよい。
 次に、補間位相生成部30は、圧縮映像信号デコード部10から出力されるフレームリピート情報のハイレベルとローレベルの割合から、圧縮映像信号のフレームレートを検出し、フレームリピート処理の判別を行う。
 図2は、補間位相生成部30のフレームリピート処理の判別方法の例を表すフローチャートである。
 図2に示されるように、圧縮映像信号のフレームレートには、圧縮映像信号デコード部10が行う所定のフレームリピート処理が対応付けられている。
 具体的には、圧縮映像信号のフレームレートが30Hzである場合、圧縮映像信号デコード部10が行うフレームリピート処理は2:2:2:4処理、または2:2処理のいずれかである。
 2:2:2:4処理とは、具体的には、例えば、圧縮映像信号に時間的に連続したフレーム「1」「2」「3」「4」が含まれる(1~4のストリームが含まれる)場合、圧縮映像信号デコード部10がベースバンド映像信号としてフレーム「1」「1」「2」「2」「3」「3」「4」「4」「4」「4」を出力することを意味する。フレーム「4」に連続するフレーム「5」以降のフレームも同様に、周期的に連続して出力される。
 また、2:2処理とは、同様に、圧縮映像信号デコード部10がベースバンド映像信号としてフレーム「1」「1」「2」「2」「3」「3」「4」「4」と圧縮映像信号がデコードされた映像信号のフレームを2回ずつ連続して出力することを意味する。
 圧縮映像信号のフレームレートが25Hzである場合、フレームリピート処理は2:3:2:3:2処理であり、圧縮映像信号のフレームレートが24Hzである場合、フレームリピート処理は3:2処理である。圧縮映像信号のフレームレートが24Hz、20Hz、15Hz、12Hzである場合も同様に、それぞれ、フレームリピート処理の3:2処理、3:3処理、4:4処理、5:5処理が対応付けられている。
 以上のように、圧縮映像信号のフレームレートには、所定のフレームリピート処理が対応付けられているため、補間位相生成部30は、図2のフローチャートに従い、圧縮映像信号デコード部10が行ったフレームリピート処理を判別することができる。
 フレームレートが30Hzである場合(S2でYes)は、補間位相生成部30は、ケイデンス検出部20の出力を参照する(S13)。その結果、ケイデンス検出部20の出力が2:2:2:4処理を表す場合(S13でYes)、補間位相生成部30は、フレームリピート処理が2:2:2:4処理であると判別する(S14)。ケイデンス検出部20の動作については後述する。ケイデンス検出部20の出力が2:2:2:4処理を表さない時(S13でNo)は補間位相生成部30は、フレームリピート処理が2:2処理であると判別する。
 以降、フレームレートが30Hzではなく(S2でNo)でフレームレートが25Hzである時(S3でYes)は、補間位相生成部30は、フレームリピート処理が2:3:2:3:2処理であると判別する(S8)。フレームレートが25Hzではなく(S3でNo)フレームレートが24Hzである時(S4でYes)は、補間位相生成部30は、フレームリピート処理が3:2処理であると判別する(S9)。
 同様に、補間位相生成部30は、フレームレートが20Hzである場合(S5でYes)はフレームリピート処理が3:3処理(S10)、フレームレートが15hzと判別された場合(S6でYes)はフレームリピート処理が4:4処理(S11)、フレームレートが12Hzである場合(S7でYes)はフレームリピート処理が5:5処理(S12)であると判別する。なお、圧縮映像信号のフレームレートが図2で示されるフレームレートのいずれにも全てに当てはまらないと判断された時(S7でNo)は、S8~S12、S14およびS15の処理の処理遅延と合わせる処理をして、再度、フレーム判別が行われる。
 図3Aの例では、図3Aの(4)のように、補間位相生成部30は、圧縮映像信号のフレームレートが15Hzであると判別する(図2のS6)。したがって、補間位相生成部30は、圧縮映像信号デコード部10が行うフレームリピート処理は、4:4処理(図2のS11)であると判別する。
 なお、フレームレートの判別は、圧縮映像信号に含まれるヘッダー情報の一部であるフレームレート情報を用いても良い。また本判別は圧縮映像信号に含まれるタイムスタンプ情報を用いても良い。また、図2のステップS2~S7の判別処理を1つのステップで行なっても良い。また、図2のステップS2~S7の処理の順序を入れ替えても良い。
 次に、補間位相生成部30は、フレーム更新情報(図3Aの(6))と、補間位相情報(図3Aの(7))とを生成する。
 フレーム更新情報は、フレームの更新(切り替わり)を表す情報である。ベースバンド映像信号では、圧縮映像信号がデコードされた映像信号に含まれるフレーム「1」、フレーム「2」、フレーム「3」・・・と同じフレームがそれぞれ4回ずつ連続して出力される。フレームが更新される、とは、直前の複数回連続して出力されたフレームと異なるフレームが出力されることを意味する。
 具体的には、フレーム更新情報は、ベースバンド映像信号の4回ずつ連続して出力されるフレームのそれぞれ最初のフレーム(更新されたフレーム)が出力される期間でハイレベルの値をとり、それ以外の期間ではローレベルの値をとるデジタル信号である。図3Aの例では、フレーム更新情報は、フレームリピート情報の論理を反転させた信号である。つまり、フレーム更新情報の生成は、必ずしも必須ではなく、フレームリピート情報をそのまま用いてもよい。
 なお、フレーム更新情報の論理は逆であってもよい。つまり、連続して出力されるフレームのそれぞれ先頭のフレームが出力される期間でローレベルの値をとり、それ以外の期間ではハイレベルの値をとってもよい。
 補間位相情報は、ベースバンド映像信号において連続して出力されるフレームの動きを、後述する動きベクトルによって補間した補間フレームを生成するための情報である。図3Aの例では、フレーム間の時間距離を表す情報であるともいえる。
 例えば、圧縮映像信号がデコードされた映像信号に含まれるフレーム「1」、フレーム「2」、フレーム「3」・・・のそれぞれのフレーム間の時間距離を「1」とする。ベースバンド映像信号では、圧縮映像信号がデコードされた映像信号に含まれるフレームと同じフレームがそれぞれ4回連続して出力されるため、連続して出力されるフレーム間の時間距離は「0」である。これに対し、例えば、4回連続して出力されるフレーム「1」の最後のフレーム「1」と、このフレームに続いて出力されるフレーム「2」との時間距離は、上述のように「1」である。
 このようにベースバンド映像信号に含まれるフレーム間の時間的距離は不均一であるため、フレーム間の動きを補間した補間フレームを用いてフレーム間の時間距離を均等にすることでスムースな映像表示が実現される。
 補間位相情報は、具体的には、次のようにして求められる。
 まず、図3Aの(4)で示されるフレームレートの検出結果(フレームリピート処理の判別結果)に基づき、繰り返し位相(図3Aの(5))を求める。フレームリピート処理が4:4処理の場合、圧縮映像信号がデコードされた映像信号に含まれるフレームと同じフレームが4回ずつ出力されるため、繰り返し位相として「0」~「3」の各繰り返し位相が対応付けられる。ここで、フレーム更新情報に基づき、更新されたフレームには、繰り返し位相「0」が対応付けられ、続く、更新されたフレームと同じ3つのフレームには繰り返し位相「1」「2」「3」が対応付けられる。
 次に、繰り返し位相計算結果から、補間位相情報を求める。第1の実施形態では、例えば、判別されたフレームリピート処理ごとに、繰り返し位相と補間位相が対応付けられている。
 図3Bは、繰返し位相と補間位相情報の関係を示す図である。
 図3Bに示されるように、繰り返し位相「0」「1」「2」「3」にそれぞれ補間位相情報「0」「1/4」「2/4」「3/4」がそれぞれ対応付けられている。したがって例えば、連続して出力される最初のフレーム「1」(以下、更新されたフレーム「1」と記述する)には補間位相情報「0」が対応付けられる。更新されたフレーム「1」に続いて出力される2番目のフレーム「1」には、補間位相情報「1/4」が対応付けられる。同様に、3番目のフレーム「1」には、補間位相情報「2/4」が対応付けられ、4番目のフレーム「1」には、補間位相情報「3/4」が対応付けられる。
 このように、補間位相生成部30は、判別されたフレームリピート処理ごとに、繰り返し位相と補間位相が対応付けられたテーブルを用いて、補間位相情報を求める。
 動きベクトル検出部40は、フレーム更新信号を用いて更新されたフレーム間の動きベクトルを求める(図3Aの(8))。
 また、補間フレーム生成部50は、ベースバンド映像信号、動きベクトル、フレーム更新情報、及び補間位相情報を用いて補間フレームを生成する(図3Aの(9))。
 以下、動きベクトル及び補間フレームの生成方法について詳細に説明する。なお、以下の説明では主に連続して出力されるフレーム「1」に置き換えられる補間フレームの生成方法について説明するが、フレーム「2」「3」・・・についても同様である。
 補間フレームは、ベースバンド映像信号、動きベクトル、補間位相情報、及びフレーム更新情報を用い、更新されたフレームを線形補間をすることで生成される。例えば、図3Aの(9)に示される補間位相「1/4」に対応する補間フレーム「1.25」は、補間位相情報「0」に対応する更新されたフレーム「1」と更新されたフレーム「2」とから求められる動きベクトルを用いて、線形補間することで生成される。
 まず、動きベクトル検出部40は、例えば、更新されたフレーム「1」と更新されたフレーム「2」とをいくつかの小領域に分割する。
 次に、動きベクトル検出部40は、フレーム「2」の一つの小領域(以下、小領域Aとする。)と、フレーム「1」の各小領域とのSAD(Sum of Absolute Difference)を求める。SADは、フレームを構成する各画素について、当該フレームと時間的に連続するフレームの対応する画素との輝度差の絶対値を求め、求めた各画素の輝度差の絶対値を合計したパラメータである。
 続いて、動きベクトル検出部40は、小領域の数だけ求められたSADのうち、最も小さいSAD値に対応する更新されたフレーム「1」の小領域(以下、小領域A´とする)を求める。さらに、動きベクトル検出部40は、小領域A及び小領域A´を用いて、小領域Aから小領域A´への位置の変化を表す動きベクトルAを求める。
 次に、補間フレーム生成部50は、補間フレーム「1.25」に含まれる小領域のうち、小領域Aの位置から、動きベクトルA´×0.25(=補間位相情報1/4)によって求められる位置の小領域(以下、小領域A´´とする)を求める。
 小領域A´´の各画素の輝度は、小領域Aの各画素の輝度と小領域A´の各画素との輝度を比例配分することによって求められる。例えば、小領域A´´の任意の画素aの輝度は(小領域A´´の画素aの輝度)=(小領域Aの画素aに対応する画素の輝度)×0.25+(小領域A´の画素aに対応する画素の輝度)×0.75という式で求められる。上記の0.25と0.75とは、補間位相情報1/4から求められる値である。
 以上のように各画素の輝度を求めることで、補間フレーム「1.25」の小領域A´´の輝度が求められる。フレーム「2」の他の小領域についても、動きベクトルをそれぞれ求めることで、補間フレーム「1.25」の他の小領域の輝度が求められる。この結果、補間フレーム「1.25」が生成される。
 同様にして、補間フレーム生成部50は、補間位相情報「2/4」、「3/4」に対応する補間フレーム「1.5」、「1.75」を生成する。また、図3Aに示される補間フレーム「2.25」、「2.5」、「2.75」についても同様の方法にて生成される。
 最後に、補間フレーム生成部50は、補間位相情報に応じて、ベースバンド映像信号に含まれるフレームを補間フレームに置き換えた出力映像信号を出力する。なお、図3Aの(9)に示されるように、補間位相情報「0」に対応するフレーム、つまり更新されたフレームは、補間フレームには置き換えられない。
 これにより、補間フレームを用いてフレーム間の時間距離を均等にすることでスムースな映像表示が実現される。
 なお、映像信号処理装置がフレームリピート情報とケイデンス情報の検出を併用してフレームリピート処理を判別するような構成であってもよい。
 図4Aは、このような映像信号処理装置60の動作の別の例を表す図である。
 図4Aでは、まず、圧縮映像信号デコード部10は、入力される圧縮映像信号(図4Aの(1)及び(1’))をデコードしてベースバンド映像信号(図4Aの(2))とフレームリピート情報(図4Aの(3))とを出力する。この場合、圧縮映像信号デコード部10は、2:2:2:4処理によってフレームを連続して出力する。したがって、図4Aで示されるように、ベースバンド映像信号では、フレーム「1」~「3」は2回ずつ連続して出力され、フレーム「4」は4回連続して出力される。つまり、図4Aの(1)中の「4のストリーム」で表されるフレームと「4’のストリーム」で表されるフレームは同じ映像(フレーム)であり、図4Aの(2)中のフレーム「4」とフレーム「4’」は同じフレームである。
 図4Aの(3)で示されるフレームリピート情報は、2回ずつ連続して出力されるフレーム「1」・・・、フレーム「4」、フレーム「4’」・・・のそれぞれ先頭のフレームが出力される期間でローレベルの値をとり、それ以外の期間ではハイレベルの値をとる。この場合、フレームリピート情報は、圧縮映像信号のフレームレートを表す信号である。
 補間位相生成部30は、図4Aの(3)のフレームリピート情報のハイレベル及びローレベルの期間の比率から圧縮映像信号のフレームレートが30Hzであることを検出する。(図4Aの(4))。
 一方、ケイデンス検出部20は、ベースバンド映像信号に含まれるフレームが更新されたか否かを表すケイデンス情報をベースバンド映像信号に基づいて検出する(図4Aの(7))。ケイデンス情報は、具体的には、図4Aの(2)で示されるベースバンド映像信号のフレームの差分を、各フレームの対応する画素の輝度差の絶対値を累積加算した値(図4Aの(5))を算出し、これらを閾値によって0/1判別したデジタル信号(図4Aの(6))である。
 補間位相生成部30は、フレームリピート処理が2:2:2:4処理であるというケイデンス情報の検出結果に基づき、フレーム更新情報(図4Aの(9))と補間位相情報(図4Aの(10))を生成する。
 補間位相情報を生成するために、補間位相生成部30は、まず、繰り返し位相(図4Aの(8)を求める。フレームリピート処理が2:2:2:4処理の場合、フレームリピート処理は、10フレームごとの周期を持つため、繰り返し位相として「0」~「9」の各繰り返し位相が対応付けられる。
 次に、繰り返し位相計算結果から、対応付けられた補間位相情報を求める。
 図4Bは、繰返し位相と補間位相情報の関係を示す図である。
 図4Bに示されるように、繰り返し位相「0」~「9」にそれぞれ補間位相情報「0」「2/5」「4/5」「1/5」「3/5」「0」「2/5」「4/5」「1/5」「3/5」「0」がそれぞれ対応付けられている。したがって、図4Aの(2)に示されるベースバンド映像信号に含まれる各フレームに上記の補間位相情報がそれぞれ対応付けられる。
 動きベクトル検出部40は、フレーム更新情報(図4Aの(9))を用いて、更新されたフレーム間の動きベクトルを検出する(図4Aの(11))。補間フレーム生成部50は、動きベクトルとフレーム更新情報と補間位相情報とを用いて補間フレームを生成する(図4Aの(12))。動きベクトルの検出方法、及び補間フレームの生成方法は図3Aで説明した方法と同様である。
 最後に、補間フレーム生成部50は、補間位相情報に応じて、ベースバンド映像信号に含まれるフレームを補間フレームに置き換えた出力映像信号を出力する。なお、図4Aの(12)に示されるように、補間位相情報「0」に対応するフレームは、補間フレームには置き換えられない。
 なお、図4Aの例において、フレームリピート情報は、フレームリピート処理2:2:2:4処理を直接明示するような信号であってもよい。つまり、例えば、フレームリピート情報が図4Aの(6)で示されるケイデンス情報の論理を反転した信号であってもよい。
 なお、第1の実施形態では、ケイデンス検出部20の検出結果を用いるのは圧縮映像信号のフレームレートが30Hzの場合のみを記載している。しかしながら、他のフレームレートの場合であっても、同一のフレームレートに対するフレームリピート処理が2種類以上あるような場合には、ケイデンス検出部20のケイデンス情報の検出結果を用いてフレームリピート処理を判別してもよい。
 また、第1の実施形態では、ケイデンス検出部20が2:2:2:4処理のみを検出する構成であるが、ケイデンス検出部20は、他のフレームリピート処理について、ケイデンス情報を検出しても良い。
 以上、本発明に係る映像信号処理装置60について、第1の実施形態に基づいて説明した。
 映像信号処理装置60によれば、ベースバンド映像信号のフレームリピート処理を誤検出なく判別することができる。したがって、映像信号処理装置60は、フレームリピート処理されたフレームを適切に補間することが可能である。
 なお、映像信号処理装置60は、出力映像信号を表示装置等に出力すると共に、図2で検出したフレームレートの検出結果を、表示装置等に表示してもよい。また、この場合、例えば、フレームレートの検出結果に基づき、フレームの補間処理を行うかどうかをユーザに選択させるための選択メニューを、フレームの補間処理を行う前に表示装置等に表示してもよい。
 (第2の実施形態)
 映像信号処理において、圧縮映像信号をデコードする装置(映像信号出力装置)と、補間フレームを生成する装置(映像信号処理装置)とは、それぞれ別々のLSI(Large Scale Integration)として構成されることが多い。
 第2の実施形態では、このような構成の一例として、映像信号出力装置と、映像信号処理装置とがLVDS(Low Voltage Differential Signal)を用いて通信する場合について、図面を参照しながら説明する。
 図5は、本発明の第2の実施形態に係る映像信号出力装置及び映像信号処理装置を表すブロック図である。なお、構成要素のうち第1の実施形態と同じ符号のものは、特に断りのない限り、第1の実施形態と同様の機能を備え、第1の実施形態と同様の動作をするものとして説明を省略する。
 図5において、映像信号出力装置120は、圧縮映像信号デコード部10と、LVDS出力部100とを備えるLSIである。映像信号処理装置130は、ケイデンス検出部20と、補間位相生成部30と、動きベクトル検出部40と、補間フレーム生成部50と、LVDS取得部110とを備えるLSIである。
 LVDS出力部100は、圧縮映像信号デコード部10が出力したベースバンド映像信号の映像情報が含まれないブランキング期間にフレームリピート情報を重畳(記録)し、LVDSとして出力する。
 LVDS取得部110は、例えば、LVDSを取得してベースバンド映像信号のブランキング期間に重畳されているフレームリピート情報とベースバンド映像信号を分離する。
 また、LVDS取得部110は、分離したフレームリピート情報を補間位相生成部30へ出力し、ベースバンド映像信号をケイデンス検出部20、動きベクトル検出部40、及び補間フレーム生成部50へ出力する。
 次に、ベースバンド映像信号のブランキング期間にフレームリピート情報を重畳する方法について説明する。
 図6は、第2の実施形態に係るベースバンド映像信号のデータ構造を示す図である。図6に示されるデータ構造は、ベースバンド映像信号の緑(G)に対応する信号(信号G)の9ビット目から2ビット目である。
 図6の例では、LVDS出力部100は、信号Gの9ビット目から2ビット目に位置する20バイト(8ビット×20)のブランキング期間にフレームリピート情報を重畳して出力する。
 なお、0バイト目(HD)は多重信号のヘッダーを示す固定値FFhであり、1バイト目(D0)はデコーダのリピートフラグの有効フラグである。2バイト目(D1)は、フレームリピート情報であり、3バイト目(D2)は、圧縮映像信号(入力ストリーム)のフレームレート情報であり、4~19バイト目(D3~D18)は予備データである。
 図7は、フレームリピート情報のビット割り当ての例を示す図である。
 1バイト目(D0)のLSB(Least Significant Bit)は、フレームリピート情報の有効/無効を表すフラグであり、例えば、「0」が無効に対応し、「1」が有効に対応する。
 2バイト目(D1)のLSBは、フレームリピート情報であり、例えば、「0」がフレームリピートなし(連続する同じフレームの最初のフレーム)に対応し、「1」がフレームリピート発生(連続する同じフレームの最初のフレーム以外)に対応する。
 3バイト目(D2)は、圧縮映像信号(入力映像ストリーム)のフレームレート情報である。図7に示されるように、例えば、圧縮映像信号のフレームレートが30Hz(図7では30Pと記載)の場合、D2には1eh(hは16進数を表す)の値が格納され、圧縮映像信号のフレームレートが15Hzの場合、D2には0fhが格納される。
 このように、映像信号出力装置120が、フレームリピート情報をベースバンド映像信号のブランキング期間へ重畳することで、映像信号出力装置120は、ベースバンド映像信号のデータ構造等を変更することなくフレームリピート情報を伝送することができる。
 なお、第2の実施形態では、映像信号出力装置120と、映像信号処理装置130とがLVDSを用いて通信する例について説明したが、通信に用いられる信号はLVDSに限定されない。例えば、通信に用いられる信号は、LSI間のインターフェースに用いられるVbyOne(登録商標)等の差動伝送方式の信号を用いてもよいし、CMOS等のシングルエンド伝送方式の信号を用いてもよい。
 (第3の実施形態)
 映像信号処理において、圧縮映像信号をデコードする装置(映像信号出力装置)と、補間フレームを生成する装置(映像信号処理装置)とが、それぞれ別々の機器に実装される場合が考えられる。例えば、圧縮映像信号をデコードする装置がBlu-Rayプレーヤであり、補間フレームを生成する装置がテレビであるような場合である。
 第3の実施形態では、このような構成の一例として、映像信号出力装置と、映像信号処理装置とがHDMI(High Definition Multimedia Interface)を用いて通信する場合について説明する。
 図8は、第3の実施形態に係る映像信号出力装置及び映像信号処理装置の構成を表すブロック図である。
 映像信号出力装置220は、圧縮映像信号デコード部10と、HDMI出力部200とを備える。映像信号処理装置230は、ケイデンス検出部20と、補間位相生成部30と、動きベクトル検出部40と、補間フレーム生成部50と、HDMI取得部210とを備えるLSIである。
 HDMI出力部200は、ベースバンド映像信号とフレームリピート情報が含まれるデコード情報とをHDMI規格の映像信号として出力する。HDMI出力部200は、フレームリピート情報を含むデコード情報をHDMI規格の映像信号のInfoFrame部に重畳して出力する。
 HDMI取得部210は、ベースバンド映像信号とフレームリピート情報を含むデコード情報とが含まれるHDMI規格の映像信号を取得する。フレームリピート情報は、HDMI出力部200によってHDMI規格の映像信号のInfoFrameに重畳されている。
 このように、映像信号出力装置220が、フレームリピート情報をHDMI規格の映像信号のInfoFrameへ重畳することで、異なる機器間においても映像信号出力装置220は、フレームリピート情報を容易に伝送することができる。
 以上、本発明の一態様に係る映像信号出力装置、及び映像信号処理装置について、第1~第3の実施形態に基づいて説明した。なお、本発明は、以下のように変形することもできる。
 (1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるディジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記ディジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記ディジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記ディジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記ディジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記ディジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 以上、本発明の一態様に係る映像信号出力装置、及び映像信号処理装置について、第1~第3の実施形態、及びその変形例について説明した。
 本発明によれば、フレームリピート情報を用いることで、映像信号処理装置は、フレームリピート処理を誤検出することなく、ベースバンド映像信号を、補間フレームを用いた出力映像信号に信号処理することが可能である。したがって、視聴者が映像に違和感を感じない、スムースで高品位な映像表示が実現される。
 なお、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 本発明の映像信号処理装置、映像信号出力装置、及び映像信号処理方法によれば、フレームリピート処理を誤検出することなく、ベースバンド映像信号を、補間フレームを用いた出力映像信号に信号処理することが可能である。したがって、本発明によれば、視聴者が違和感を感じない、スムースで高品位な映像表示が可能であり、圧縮映像信号を再生可能なテレビや、パーソナルコンピュータなどの表示装置等として有用である。
 10 圧縮映像信号デコード部
 20 ケイデンス検出部
 30 補間位相生成部
 40 動きベクトル検出部
 50 補間フレーム生成部
 60、130、230 映像信号処理装置
 100 LVDS出力部
 110 LVDS取得部
 120、220 映像信号出力装置
 200 HDMI出力部
 210 HDMI取得部

Claims (11)

  1.  圧縮映像信号がデコードされることで得られるフレームごとに当該フレームと同じフレームが複数回連続して出力されることによって生成されたベースバンド映像信号の信号処理を行う映像信号処理装置であって、
     複数回連続して出力された前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報を取得し、前記フレームリピート情報に基づいて、前記ベースバンド映像信号のフレームレートに応じて補間フレームを生成するための位相を示す補間位相情報を生成する補間位相生成部と、
     前記フレームリピート情報が表す更新されたフレーム間の動きベクトルを検出する動きベクトル検出部と、
     前記補間位相情報及び前記動きベクトルを用いて、前記更新されたフレーム間の動きを補間した前記補間フレームを生成し、前記更新されたフレームと前記補間フレームとを含む、前記ベースバンド映像信号と同じフレームレートの出力映像信号を出力する補間フレーム生成部とを備える
     映像信号処理装置。
  2.  前記補間位相生成部は、前記フレームリピート情報に基づいて、前記ベースバンド映像信号に含まれるフレームが直前のフレームから更新されたか否かを表すフレーム更新情報を生成し、
     前記動きベクトル検出部は、前記フレーム更新情報が表す前記更新されたフレーム間の動きベクトルを検出する
     請求項1に記載の映像信号処理装置。
  3.  前記映像信号処理装置は、さらに、前記ベースバンド映像信号に含まれるフレームが更新されたか否かを表すケイデンス情報を前記ベースバンド映像信号に基づいて検出するケイデンス検出部を備え、
     前記補間位相生成部は、前記フレームリピート情報と前記ケイデンス情報とを用いて前記補間位相情報を生成する
     請求項1または2に記載の映像信号処理装置。
  4.  前記映像信号処理装置は、さらに、前記ベースバンド映像信号と前記フレームリピート情報とが含まれるHDMI(High Definition Multimedia Interface)規格の映像信号を取得するHDMI取得部を備え、
     前記フレームリピート情報は、前記HDMI規格の映像信号のInfoFrameに重畳される
     請求項1~3のいずれか1項に記載の映像信号処理装置。
  5.  前記映像信号処理装置は、さらに、前記圧縮映像信号をデコードして前記ベースバンド映像信号と前記フレームリピート情報とを出力する圧縮映像信号デコード部を備える
     請求項1~4のいずれか1項に記載の映像信号処理装置。
  6.  前記圧縮映像信号デコード部は、前記ベースバンド映像信号のうち映像情報が含まれていない期間であるブランキング期間に前記フレームリピート情報を重畳して前記ベースバンド映像信号及び前記フレームリピート情報を出力する
     請求項5に記載の映像信号処理装置。
  7.  前記映像信号処理装置は、LSI(Large Scale Integration)である
     請求項1~6のいずれか1項に記載の映像信号処理装置。
  8.  圧縮映像信号を取得し、前記圧縮映像信号がデコードされることで得られるフレームごとに当該フレームと同じフレームを複数回連続して出力することによって生成したベースバンド映像信号と、複数回連続して出力した前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報とを出力する圧縮映像信号デコード部を備える
     映像信号出力装置。
  9.  前記圧縮映像信号デコード部は、前記ベースバンド映像信号のうち映像情報が含まれていない期間であるブランキング期間に前記フレームリピート情報を重畳して前記ベースバンド映像信号及び前記フレームリピート情報を出力する
     請求項8に記載の映像信号出力装置。
  10.  前記映像信号出力装置は、さらに、前記ベースバンド映像信号と前記フレームリピート情報とをHDMI規格の映像信号として出力するHDMI出力部とを備え、
     前記HDMI出力部は、前記フレームリピート情報を前記HDMI規格の映像信号のInfoFrameに重畳して出力する
     請求項8に記載の映像信号出力装置。
  11.  圧縮映像信号がデコードされることで得られるフレームごとに当該フレームと同じフレームが複数回連続して出力されることによって生成されたベースバンド映像信号の信号処理を行う映像信号処理方法であって、
     複数回連続して出力された前記同じフレームのうち最初のフレームの前記ベースバンド映像信号内の位置を表すフレームリピート情報を取得し、前記フレームリピート情報に基づいて、前記ベースバンド映像信号のフレームレートに応じて補間される補間フレームの位相を示す補間位相情報とを生成する補間位相生成ステップと、
     前記フレームリピート情報が表す更新されたフレーム間の動きベクトルを検出する動きベクトル検出ステップと、
     前記補間位相情報及び前記動きベクトルを用いて前記補間フレームを生成し、前記更新されたフレームと前記補間フレームとを含む、前記ベースバンド映像信号と同じフレームレートの出力映像信号を出力する補間フレーム生成ステップとを備える
     映像信号処理方法。
PCT/JP2012/002803 2011-12-14 2012-04-24 映像信号処理装置、映像信号出力装置、及び映像信号処理方法 WO2013088589A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/362,628 US20140362923A1 (en) 2011-12-14 2012-04-24 Video signal processing device, video signal output device, and video signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011273550 2011-12-14
JP2011-273550 2011-12-14

Publications (1)

Publication Number Publication Date
WO2013088589A1 true WO2013088589A1 (ja) 2013-06-20

Family

ID=48612073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002803 WO2013088589A1 (ja) 2011-12-14 2012-04-24 映像信号処理装置、映像信号出力装置、及び映像信号処理方法

Country Status (3)

Country Link
US (1) US20140362923A1 (ja)
JP (1) JPWO2013088589A1 (ja)
WO (1) WO2013088589A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016190089A1 (ja) * 2015-05-22 2016-12-01 ソニー株式会社 送信装置、送信方法、画像処理装置、画像処理方法、受信装置および受信方法
JP2017011502A (ja) * 2015-06-22 2017-01-12 株式会社メガチップス 受信装置及びこれを用いた画像伝送システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9300906B2 (en) * 2013-03-29 2016-03-29 Google Inc. Pull frame interpolation
US20150296101A1 (en) * 2014-04-09 2015-10-15 Tao Han Universal Film mode detection for interlaced video stream
CN105657491A (zh) * 2015-08-21 2016-06-08 乐视致新电子科技(天津)有限公司 音视频播放设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172618A (ja) * 1995-12-19 1997-06-30 Nippon Hoso Kyokai <Nhk> 画像変換装置
JP2002152569A (ja) * 2000-11-07 2002-05-24 Matsushita Electric Ind Co Ltd シネマ信号作成システム
JP2007288483A (ja) * 2006-04-17 2007-11-01 Matsushita Electric Ind Co Ltd 画像変換装置
JP2008124741A (ja) * 2006-11-10 2008-05-29 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2008167102A (ja) * 2006-12-28 2008-07-17 Hitachi Ltd 映像処理装置及びそれを備えた映像表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100463764B1 (ko) * 2000-07-21 2004-12-29 마츠시타 덴끼 산교 가부시키가이샤 신호 전달 시스템
US20080288263A1 (en) * 2005-09-14 2008-11-20 Lg Electronics, Inc. Method and Apparatus for Encoding/Decoding
JP5593596B2 (ja) * 2008-02-04 2014-09-24 ソニー株式会社 映像信号送信装置および映像信号送信方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172618A (ja) * 1995-12-19 1997-06-30 Nippon Hoso Kyokai <Nhk> 画像変換装置
JP2002152569A (ja) * 2000-11-07 2002-05-24 Matsushita Electric Ind Co Ltd シネマ信号作成システム
JP2007288483A (ja) * 2006-04-17 2007-11-01 Matsushita Electric Ind Co Ltd 画像変換装置
JP2008124741A (ja) * 2006-11-10 2008-05-29 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2008167102A (ja) * 2006-12-28 2008-07-17 Hitachi Ltd 映像処理装置及びそれを備えた映像表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016190089A1 (ja) * 2015-05-22 2016-12-01 ソニー株式会社 送信装置、送信方法、画像処理装置、画像処理方法、受信装置および受信方法
JPWO2016190089A1 (ja) * 2015-05-22 2018-03-08 ソニー株式会社 送信装置、送信方法、画像処理装置、画像処理方法、受信装置および受信方法
US10904592B2 (en) 2015-05-22 2021-01-26 Sony Corporation Transmission apparatus, transmission method, image processing apparatus, image processing method, reception apparatus, and reception method
JP2017011502A (ja) * 2015-06-22 2017-01-12 株式会社メガチップス 受信装置及びこれを用いた画像伝送システム

Also Published As

Publication number Publication date
US20140362923A1 (en) 2014-12-11
JPWO2013088589A1 (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
US8436921B2 (en) Picture signal processing system, playback apparatus and display apparatus, and picture signal processing method
WO2013088589A1 (ja) 映像信号処理装置、映像信号出力装置、及び映像信号処理方法
US20090322858A1 (en) Picture signal processing device, television receiving apparatus and method of controlling apparatus
US7250983B2 (en) System and method for overlaying images from multiple video sources on a display device
JP2008135965A (ja) インタレース映像の生成シーケンスの検出方法およびインタレース/プログレッシブ変換方法並びに装置
JP2008252591A (ja) 補間フレーム生成装置、補間フレーム生成方法及び放送受信装置
US8830393B2 (en) Method, apparatus and machine-readable medium for handling interpolated video content
JP5106039B2 (ja) 画像音声同期再生装置
JP5194110B2 (ja) 送信装置および受信装置
JP4513873B2 (ja) 映像処理装置、及び映像処理方法
US9743034B2 (en) Video transmitting/receiving device and video display device
JP5161935B2 (ja) 映像処理装置
JP5206313B2 (ja) コーミングノイズ検出装置、コーミングノイズ検出方法
JP2004015700A (ja) プログレッシブ変換方法、プログレッシブ変換装置、シーケンス検出方法、シーケンス検出装置および映像データ処理装置
JP2010124193A (ja) 映像信号処理装置及び映像信号処理方法
JP2009159321A (ja) 補間処理装置、補間処理方法及び映像表示装置
WO2009098895A1 (ja) 映像信号処理方法、集積回路および映像再生装置
JP2008252333A (ja) 映像データ伝送システム
JP2008061067A (ja) 映像表示システム、再生装置および表示装置
WO2011114633A1 (ja) 映像信号処理装置及び映像信号処理方法
JP2013102295A (ja) 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
JP4063158B2 (ja) 画像合成装置及び方法、並びに画像再生装置
JP2007081755A (ja) 画像データ変換装置
KR20100069909A (ko) 디-인터레이싱 방법, 디-인터레이싱 장치 및 이를 포함한 영상 표시 시스템
JP5371682B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12857498

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013549056

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14362628

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12857498

Country of ref document: EP

Kind code of ref document: A1